CogMAEC@ACM MM 2025火热征稿中!探索多模态共情智能的认知密码

本次研讨会聚焦于认知导向的多模态情感计算,旨在推动AI从感知走向理解,共吸引来自全球不同高校的研究者和开发者参与。

推理能力飙升,指令遵循暴跌?MathIF基准揭示大模型“服从性漏洞”

研究揭示越擅长数学推理的模型反而更难完全遵守指令。这项发现强调了AI在处理复杂任务时的’聪明’与’听话’之间的权衡关系,未来有望构建既能深入思考又能严格守规矩的大模型。

导师放养,偷偷发了顶会……

万物皆卷的时代,越来越多的人通过高质量论文来增强竞争力。咕泡科技提供一站式科研辅导服务,包括选题、实验设计验证、创新点设计等环节,助力学生在短时间内提升学术能力,确保论文顺利发表。

35%准确率蒸发!字节&华科WildDoc揭示多模态文档理解鲁棒性短板

多模态大模型在文档理解领域的性能显著,但现有基准存在真实场景挑战。字节跳动联合华中科技大学发布首个真实世界文档理解基准数据集WildDoc,揭示了当前模型的不足,并提出改进策略。

告别O(n²)!上海AI Lab开源Linear-MoE:线性注意力+MoE的终极缝合术

近期研究表明,线性序列建模(如 Lightning Attention、Mamba2)与混合专家模型架构(MoE)的结合在高效大模型领域引起了广泛关注。上海人工智能实验室团队的最新研究首次系统地实现了这两种技术的结合,并开源了完整的技术框架。

ICML 2025 北大团队提出GAPrompt:仅用2%参数,点云模型精度媲美全量微调

北京大学等机构提出GAPrompt,一种面向三维视觉预训练模型的几何感知高效微调方法,通过引入点云结构化提示提升下游任务中的几何适应能力。该研究已被人工智能顶会ICML 2025接收,并已开源相关代码与模型。