突破AI视觉“选择性失明”,哈工大首次实现指令驱动的全景式感知
哈工大博士生李俊劼的研究成果GiVE首次实现了指令驱动的全景式感知,解决了传统多模态模型’选择性失明’的问题。通过引入AG-Adapter模块和设计三种专门损失函数,GiVE能灵活调整注意力焦点,提升多模态任务表现。
哈工大博士生李俊劼的研究成果GiVE首次实现了指令驱动的全景式感知,解决了传统多模态模型’选择性失明’的问题。通过引入AG-Adapter模块和设计三种专门损失函数,GiVE能灵活调整注意力焦点,提升多模态任务表现。
新一代通用智能机器人AlphaBot 2在学习能力和自主执行任务方面表现出色,能够360°感知周围环境并完成多种复杂任务。智平方与华熙生物达成合作,将机器人应用于生物科技领域。
谷歌新推出Gemini 2.5 Flash预览版,性价比高且支持自由调控思考深度。在大模型竞技场中排名第二,并在编程和数据分析能力上超过o4-mini。
姚顺雨指出AI发展分为上半场和下半场。上半场以模型和方法为主,而下半场的重点转向如何定义现实任务并有效评估AI的表现。他强调强化学习已能泛化,并提出新的评估规则来解决当前局限性。
中科大等团队提出VCR-Bench评估基准,用于评价视频理解中的CoT推理能力。该基准包含七个独立评估维度的任务框架,覆盖视觉感知和逻辑推理两大类别。结果显示当前多模态模型在复杂视频推理任务上表现不佳,最优模型仅获得62.8的CoT得分和56.7%的准确率。
多模态生成技术推动AI视频创作新阶段,生数科技产品副总裁廖谦分享了其对于多模态大模型终局的看法及应用场景。视频生成领域迎来黄金发展期,预计2024年将出现重大突破。
UC伯克利研究发现,强制要求模型跳过思考过程仍能保持或提高推理能力。使用DeepSeek-R1模型,在定理证明任务中仅需30%的Token就能达到与完整思考相同的准确率。