北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?
北大联合人工智能研究院等推出全新物理评测基准PHYBench,包含500道高质量物理题目,旨在评估大模型在物理感知与推理方面的表现,并通过创新的EED评分机制揭示前沿模型与人类专家之间的差距。
北大联合人工智能研究院等推出全新物理评测基准PHYBench,包含500道高质量物理题目,旨在评估大模型在物理感知与推理方面的表现,并通过创新的EED评分机制揭示前沿模型与人类专家之间的差距。
研究团队提出ManipTrans方法,通过两阶段迁移学习实现从人类手到机械灵巧手的操作技能转移。该方法利用通用轨迹模仿器预训练模型模仿人类手部动作,并引入残差学习模块对动作进行精细调整。同时发布DexManipNet大规模数据集用于验证。
北京大学和加州大学洛杉矶分校的研究团队发布了一种名为ROCKET-2的AI智能体,它仅在Minecraft上预训练即可实现跨多个3D游戏环境的零样本迁移。该研究提出了一种新的指令空间概念——跨视角目标对齐,并解决了自然语言作为指令媒介存在的问题。
北京大学团队推出RoboMamba,一款高效多模态机器人模型,旨在提升复杂任务的推理与决策能力。其核心目标是增强视觉和语言集成能力、优化微调策略,并降低训练成本。
Overleaf-Bib-Helper 是一个用户脚本,通过集成 DBLP 和 Google Scholar 搜索功能到 Overleaf 编辑器中,实现一键搜索并复制 BibTeX 条目,显著提高学术写作效率。
灵心巧手获得超亿元种子轮融资,用于底层技术研发和产品优化迭代。公司深耕柔性人形机器人在大健康领域的应用,并已推出Linker Hand系列灵巧手,覆盖多种设计规格和传感器系统,可实现复杂精细动作的控制与感知交互。
Q-Insight 提出了一种基于强化学习训练的多模态大模型图像画质理解方案,通过挖掘大模型自身的推理潜力,实现对图像质量的深度理解,并在多个任务上达到业界领先水平。
本文介绍了一种名为UFO的方法,它能够通过开放式的语言界面实现分割和检测任务,无需额外解码器,利用多模态大模型的图像表征能力。
DiffSensei 是首个结合多模态大语言模型(MLLM)与扩散模型的定制化漫画生成框架,通过创新机制实现角色控制、布局精准及动态叙事。该框架支持从文本到漫画的高效转换,并发布首个专为漫画生成设计的数据集MangaZero,提升角色一致性、文本跟随能力和图像质量。