类R1训练不再只看结果对错!港中文推出SophiaVL-R1模型
SophiaVL-R1 是一项基于类 R1 强化学习训练框架的新模型,它不仅奖励结果的准确性,还考虑了推理过程的质量。通过引入思考奖励机制和 Trust-GRPO 训练算法,SophiaVL-R1 提升了模型的推理质量和泛化能力,在多模态数学和通用测试数据集上表现优于大型模型。
SophiaVL-R1 是一项基于类 R1 强化学习训练框架的新模型,它不仅奖励结果的准确性,还考虑了推理过程的质量。通过引入思考奖励机制和 Trust-GRPO 训练算法,SophiaVL-R1 提升了模型的推理质量和泛化能力,在多模态数学和通用测试数据集上表现优于大型模型。
近期研究表明,线性序列建模(如 Lightning Attention、Mamba2)与混合专家模型架构(MoE)的结合在高效大模型领域引起了广泛关注。上海人工智能实验室团队的最新研究首次系统地实现了这两种技术的结合,并开源了完整的技术框架。
上海人工智能实验室联合多家单位提出了一种名为VeBrain的新模型,该模型通过统一感知、推理和控制建模方式实现了多模态大模型对物理实体的直接操控。它在视觉感知、空间推理和机器人控制方面均表现卓越,并且与现有模型相比,在多个基准测试中表现出最佳性能。
首个应用型AI翻译测评榜单TransBench上线,新增幻觉率、文化禁忌词等指标。TransBench评测数据集已全面开源,涵盖多种语言,针对电商和文化特性等方面进行实战考核。目前发布的首期测评结果中,GPT-4o、DeepL Translate、Qwen系列表现突出。
清华大学和上海人工智能实验室提出测试时强化学习(TTRL),通过在无标签数据上利用多数投票等方法估计奖励信号来提升大规模语言模型性能。
上海人工智能实验室开源生成式世界模型AETHER,首次实现大模型在真实世界中的3D空间决策与规划能力。通过「重建-预测-规划」一体化框架和几何空间建模,大幅提升模型空间推理的准确性与一致性,并成功实现在合成数据上零样本泛化至真实场景。
ICLR 大会在新加坡召开,机器之心联合多家机构举办「云帆・ICLR 2025 AI Talent Meetup」晚宴,为青年才俊提供与企业交流的机会。活动包括技术分享、互动体验和招聘宣讲等内容。
上海人工智能实验室提出的OpenING基准评估了多模态生成模型的性能,涵盖23个现实领域和56个具体任务,包含高质量标注数据和可靠裁判模型IntJudge。
本文提出参数冗余微调范式NoRM,在LoRA基础上通过SVD分解和Sim-Search方法去除冗余参数,显著提升指令微调、数学推理和代码生成任务性能。