大模型
院士领衔、IEEE Fellow 坐镇,清华、上交大、复旦、同济等专家齐聚 2025 全球机器学习技术大会!
AI 生态正经历新一轮智能体革命。大模型如何协同学习?大模型如何自我进化?新型强化学习技术如何赋能
新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍
前苹果ASIC架构师Nils Graef与UC伯克利本科生Andrew Wasielewski提出Slim Attention,通过只存储K而不直接存储V实现更少的内存占用和更高精度。
RAG中的chunk质量如何评分?HiRAG对GraphRAG的改进思路及推理大模型用于机器翻译
2025年3月17日的文章介绍了RAG相关进展的三方面内容:推理模型在机器翻译中的应用、量化文本分块的有效性方法,以及通过引入层级结构解决局部信息与全局信息间的差距问题。
MCP教程进阶篇,没学到最后你就放弃了!
MCP协议简化了与大模型的交互方式。Cursor通过集成MCP协议,支持开发者使用统一的服务接口连接不同的大模型服务,并提供了多个示例和文档指导用户创建自定义MCP服务器。
设计自己的满血版DeepSeek-R1+知识库
企业知识可以通过文本、表格和照片三种格式接入Coze。文章介绍了使用RAG方式接入企业私域知识的方法,并对大模型知识、知识库知识及插件知识之间的冲突进行了讨论,同时回顾了RAG的发展历程包括启蒙阶段和技术要点等内容。
ICLR 2025 LLaVA-MoD:MoE蒸馏训练轻量化多模态大模型
本文提出了一种轻量化多模态语言模型LLaVA-MoD,通过稀疏专家混合架构和渐进式蒸馏策略,在2B规模下使其性能超过7B大模型8.8%,并在幻觉检测任务中超越教师模型。