北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?

北大联合人工智能研究院等推出全新物理评测基准PHYBench,包含500道高质量物理题目,旨在评估大模型在物理感知与推理方面的表现,并通过创新的EED评分机制揭示前沿模型与人类专家之间的差距。

机器人也会挤牙膏?ManipTrans:高效迁移人类双手操作技能至灵巧手

研究团队提出ManipTrans方法,通过两阶段迁移学习实现从人类手到机械灵巧手的操作技能转移。该方法利用通用轨迹模仿器预训练模型模仿人类手部动作,并引入残差学习模块对动作进行精细调整。同时发布DexManipNet大规模数据集用于验证。

从Minecraft到虚幻5,AI首次实现3D游戏零样本迁移,跨游戏直接上手

北京大学和加州大学洛杉矶分校的研究团队发布了一种名为ROCKET-2的AI智能体,它仅在Minecraft上预训练即可实现跨多个3D游戏环境的零样本迁移。该研究提出了一种新的指令空间概念——跨视角目标对齐,并解决了自然语言作为指令媒介存在的问题。

机器人灵巧手企业「灵心巧手」获亿元融资

灵心巧手获得超亿元种子轮融资,用于底层技术研发和产品优化迭代。公司深耕柔性人形机器人在大健康领域的应用,并已推出Linker Hand系列灵巧手,覆盖多种设计规格和传感器系统,可实现复杂精细动作的控制与感知交互。

首次引入强化学习!火山引擎Q-Insight让画质理解迈向深度思考

Q-Insight 提出了一种基于强化学习训练的多模态大模型图像画质理解方案,通过挖掘大模型自身的推理潜力,实现对图像质量的深度理解,并在多个任务上达到业界领先水平。

CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

DiffSensei 是首个结合多模态大语言模型(MLLM)与扩散模型的定制化漫画生成框架,通过创新机制实现角色控制、布局精准及动态叙事。该框架支持从文本到漫画的高效转换,并发布首个专为漫画生成设计的数据集MangaZero,提升角色一致性、文本跟随能力和图像质量。