PaperWeekly
推理能力飙升,指令遵循暴跌?MathIF基准揭示大模型“服从性漏洞”
研究揭示越擅长数学推理的模型反而更难完全遵守指令。这项发现强调了AI在处理复杂任务时的’聪明’与’听话’之间的权衡关系,未来有望构建既能深入思考又能严格守规矩的大模型。
ICML 2025 抛弃全量微调!北大提出VGP范式,语义低秩分解解锁ViG高效迁移
北京大学提出VGP方法,通过语义低秩分解增强图结构图像模型的参数高效迁移能力,在多种下游任务中实现媲美全量微调的性能。
导师放养,偷偷发了顶会……
万物皆卷的时代,越来越多的人通过高质量论文来增强竞争力。咕泡科技提供一站式科研辅导服务,包括选题、实验设计验证、创新点设计等环节,助力学生在短时间内提升学术能力,确保论文顺利发表。
35%准确率蒸发!字节&华科WildDoc揭示多模态文档理解鲁棒性短板
多模态大模型在文档理解领域的性能显著,但现有基准存在真实场景挑战。字节跳动联合华中科技大学发布首个真实世界文档理解基准数据集WildDoc,揭示了当前模型的不足,并提出改进策略。
告别O(n²)!上海AI Lab开源Linear-MoE:线性注意力+MoE的终极缝合术
近期研究表明,线性序列建模(如 Lightning Attention、Mamba2)与混合专家模型架构(MoE)的结合在高效大模型领域引起了广泛关注。上海人工智能实验室团队的最新研究首次系统地实现了这两种技术的结合,并开源了完整的技术框架。
ICML 2025 北大团队提出GAPrompt:仅用2%参数,点云模型精度媲美全量微调
北京大学等机构提出GAPrompt,一种面向三维视觉预训练模型的几何感知高效微调方法,通过引入点云结构化提示提升下游任务中的几何适应能力。该研究已被人工智能顶会ICML 2025接收,并已开源相关代码与模型。