35%准确率蒸发!字节&华科WildDoc揭示多模态文档理解鲁棒性短板

多模态大模型在文档理解领域的性能显著,但现有基准存在真实场景挑战。字节跳动联合华中科技大学发布首个真实世界文档理解基准数据集WildDoc,揭示了当前模型的不足,并提出改进策略。

告别O(n²)!上海AI Lab开源Linear-MoE:线性注意力+MoE的终极缝合术

近期研究表明,线性序列建模(如 Lightning Attention、Mamba2)与混合专家模型架构(MoE)的结合在高效大模型领域引起了广泛关注。上海人工智能实验室团队的最新研究首次系统地实现了这两种技术的结合,并开源了完整的技术框架。

ICML 2025 北大团队提出GAPrompt:仅用2%参数,点云模型精度媲美全量微调

北京大学等机构提出GAPrompt,一种面向三维视觉预训练模型的几何感知高效微调方法,通过引入点云结构化提示提升下游任务中的几何适应能力。该研究已被人工智能顶会ICML 2025接收,并已开源相关代码与模型。

有趣思考:如何带着问题去针对性学习-兼看大模型推理、强化、RAG等进展

今天是2025年6月6日,星期五,北京晴。文章回顾了大模型相关技术进展,包括针对性学习、推理数据收集、多模态应用及强化学习评估偏差等内容。关键点在于明确问题并针对性学习,学会提问和理论与实践结合,以提升大模型性能。