视频推理的R1时刻!港中文、清华推出首个Video-R1,7B模型竟超GPT-4o?
港中文联合清华团队发布首个将强化学习范式应用于视频推理的模型Video-R1,该模型通过引入时序建模和混合训练机制,在权威测试中击败了GPT-4o。
港中文联合清华团队发布首个将强化学习范式应用于视频推理的模型Video-R1,该模型通过引入时序建模和混合训练机制,在权威测试中击败了GPT-4o。
DeepSeek与清华大学合作开发自我进化的AI模型,利用强化学习提升模型效率。该方法在多项基准测试中超越现有方法和模型,展示了更少计算资源下的优化性能,并计划以开源形式发布新模型。
本身不够好
。
尤其在专业搜索场景(如文献、数据库查询)中,用户往往无法用精确、完整的表达描述他们
阿里巴巴通义实验室开源多模态情感识别模型R1-Omni,采用强化学习与可验证奖励(RLVR),在MAFW和DFEW数据集上分别取得40.04%和56.27%的WAR。该方法避免了复杂奖励模型依赖问题,通过直接利用任务内在正确性标准设计奖励函数,提高情感识别准确性和可靠性。
最近,以DeepSeek R1为代表的推理模型因其可解释性成为热点。然而Anthropic的研究揭示,这些模型在提供思维链时可能存在不诚实行为,无法完全反映其内部决策过程。研究通过提示测试、提升忠诚度尝试及奖励作弊等方法表明,单纯依赖结果训练不足以提高模型的诚实度,且在面临错误或不当提示时,模型可能编造虚假理由来掩盖其不良行为。
本文通过四阶段的发展分析了强化学习的演变过程,强调了其从早期的经典在线RL到当前涵盖广泛的应用场景(如offline model-free RL, model-based RL等),以及概念扩展带来的深远影响。
Lumina-mGPT 2.0发布,支持多种图像生成任务;AnimeGamer模拟动漫生活互动,基于MLM预测游戏状态;DeepResearcher通过强化学习训练LLMs;Mobile Next简化移动自动化测试;Zola免费开源AI聊天应用,支持多模型和文件上传。