DeepSeek
DeepSeek将逐日开源五个项目还未开源就有3千多个star,langchain下的深入研究助手,开源复刻Openator
DeepSeek将逐日开源五个项目,共享透明进展与创新;Open Deep Research是一款支持用户自定义研究模型和报告结构的Web研究助手;Openator是一个开源浏览器代理工具,能够执行自然语言制定的操作;Magma是一种多模态人工智能代理的基础模型;AI 多人聊天室提供支持多人同时对话、可自定义角色的实时聊天应用。
DeepSeek开源周第一天:FlashMLA开源,解锁H800性能上限,提升存量GPU算力
DeepSeek开源首个项目FlashMLA,针对英伟达Hopper GPU优化MLA解码内核,提升LLM模型在H800上的性能。
DeepSeek开源大餐来了!解锁H800,带飞GPU推理速度,1小时10万观看
DeepSeek本周开源首个代码库FlashMLA,针对Hopper GPU优化的高效MLA解码内核已投入生产,性能指标达到3000 GB/s内存带宽和580 TFLOPS计算性能。发布一小时GitHub Star数冲上1700。
搭载国内首个Deep Research功能,元知平台让用户零门槛免费用满血DeepSeek|
一款名为元知的平台正式对外开放,通过高速稳定、全功能覆盖等四大核心优势解决了用户使用DeepSeek过程中的诸多困扰。
DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!
DeepSeek推出FlashMLA开源项目,专为Hopper架构GPU设计的超高效MLA解码内核现已正式开源。它优化了变长序列场景下的效率,并已在生产环境中使用。亮点包括BF16精度支持、Paged KV Cache以及极高的性能表现。
刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中
DeepSeek开源FlashMLA项目,用于Hopper GPU的高效型MLA解码核。该项目上线45分钟即收获超过400星,并在内存绑定配置下实现高达3000GB/s的速度和580TFLOPS的计算上限。
刚刚,DeepSeek开源FlashMLA,瞬间破1000颗星
专注AIGC领域的专业社区分享了DeepSeek开源的FlashMLA内核,该内核针对Hopper GPU进行了优化,实现了3000 GB/s内存带宽和580 TFLOPS计算性能,支持BF16并采用分页KV缓存技术。