CVPR 2025 Oral DiffFNO:傅里叶神经算子助力扩散,开启任意尺度超分辨率新篇章

本文提出了一种名为 DiffFNO 的方法,利用神经算子和扩散模型解决超分辨率问题。它通过加权傅里叶神经算子、门控融合机制和自适应 ODE 求解器实现了高精度和快速推理,超越了现有技术。

Agentic RAG-R1:让大模型从「检索助手」跃升为「思考+搜索王者」!

Agentic RAG-R1 是由北京大学研发的一项开源研究项目,通过引入强化学习策略(GRPO),构建了一个可自我规划、检索、推理与总结的智能体式 RAG 系统,显著提升了语言模型的自主性和效率。

北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?

北大联合人工智能研究院等推出全新物理评测基准PHYBench,包含500道高质量物理题目,旨在评估大模型在物理感知与推理方面的表现,并通过创新的EED评分机制揭示前沿模型与人类专家之间的差距。

机器人也会挤牙膏?ManipTrans:高效迁移人类双手操作技能至灵巧手

研究团队提出ManipTrans方法,通过两阶段迁移学习实现从人类手到机械灵巧手的操作技能转移。该方法利用通用轨迹模仿器预训练模型模仿人类手部动作,并引入残差学习模块对动作进行精细调整。同时发布DexManipNet大规模数据集用于验证。

从Minecraft到虚幻5,AI首次实现3D游戏零样本迁移,跨游戏直接上手

北京大学和加州大学洛杉矶分校的研究团队发布了一种名为ROCKET-2的AI智能体,它仅在Minecraft上预训练即可实现跨多个3D游戏环境的零样本迁移。该研究提出了一种新的指令空间概念——跨视角目标对齐,并解决了自然语言作为指令媒介存在的问题。

机器人灵巧手企业「灵心巧手」获亿元融资

灵心巧手获得超亿元种子轮融资,用于底层技术研发和产品优化迭代。公司深耕柔性人形机器人在大健康领域的应用,并已推出Linker Hand系列灵巧手,覆盖多种设计规格和传感器系统,可实现复杂精细动作的控制与感知交互。

首次引入强化学习!火山引擎Q-Insight让画质理解迈向深度思考

Q-Insight 提出了一种基于强化学习训练的多模态大模型图像画质理解方案,通过挖掘大模型自身的推理潜力,实现对图像质量的深度理解,并在多个任务上达到业界领先水平。