拒绝不必要Think:微软&北大提出第一种自适应大型混合推理模型

微软研究院与北大提出的大规模混合推理模型LHRMs能够在用户查询时自适应地决定是否进行思考,实现更快、更自然的日常交互,并在推理和通用能力方面超越现有模型的同时显著提高了效率。

百万规模数据集打造人形机器人通用大模型,实现精细动作跨平台、跨形态动作迁移丨北大人大联合发布

北大卢宗青团队在通用人形机器人动作生成领域取得突破,提出Being-M0框架和MotionLib数据集,实现了大规模且多样化的复杂人类动作生成,并验证了大数据+大模型的可行性。

ICML Spotlight MCU:全球首个生成式开放世界基准,革新通用AI评测范式

该研究由通用人工智能研究院与北京大学合作开发了一种名为MCU的生成式开放世界平台,用于评估通用智能体在复杂环境中的能力。MCU支持无限多样化的任务配置和环境变量,旨在全面测试智能体的真实能力和泛化水平,并通过高效的工具简化评测流程。论文详细介绍了MCU的设计及其功能突破。

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)架构尽管稀疏激活减少了计算量,但显存资源受限的端侧部署仍面临挑战。研究提出Mixture-of-Lookup-Experts(MoLE),通过将专家输入改为嵌入(token) token,利用查找表代替矩阵运算,有效降低推理开销,减少数千倍传输延迟。

CVPR 2025 Oral DiffFNO:傅里叶神经算子助力扩散,开启任意尺度超分辨率新篇章

本文提出了一种名为 DiffFNO 的方法,利用神经算子和扩散模型解决超分辨率问题。它通过加权傅里叶神经算子、门控融合机制和自适应 ODE 求解器实现了高精度和快速推理,超越了现有技术。

Agentic RAG-R1:让大模型从「检索助手」跃升为「思考+搜索王者」!

Agentic RAG-R1 是由北京大学研发的一项开源研究项目,通过引入强化学习策略(GRPO),构建了一个可自我规划、检索、推理与总结的智能体式 RAG 系统,显著提升了语言模型的自主性和效率。

北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?

北大联合人工智能研究院等推出全新物理评测基准PHYBench,包含500道高质量物理题目,旨在评估大模型在物理感知与推理方面的表现,并通过创新的EED评分机制揭示前沿模型与人类专家之间的差距。

机器人也会挤牙膏?ManipTrans:高效迁移人类双手操作技能至灵巧手

研究团队提出ManipTrans方法,通过两阶段迁移学习实现从人类手到机械灵巧手的操作技能转移。该方法利用通用轨迹模仿器预训练模型模仿人类手部动作,并引入残差学习模块对动作进行精细调整。同时发布DexManipNet大规模数据集用于验证。