200多行代码,超低成本复现DeepSeek R1「Aha Moment」!复旦大学开源
复旦大学知识工场实验室团队基于 GRPO 算法高效复现了 R1-zero 自发反思能力,项目代码简洁,仅依赖基础库实现,训练 7B 模型成本低至 7.3 元。
复旦大学知识工场实验室团队基于 GRPO 算法高效复现了 R1-zero 自发反思能力,项目代码简洁,仅依赖基础库实现,训练 7B 模型成本低至 7.3 元。
本周通讯解读了三个值得关注的技术与行业动态。DeepSeek-R1 在强化学习中采用GRPO替代PPO,减少人类标注数据并设计精妙奖励机制;ARK展望AI对经济的影响;Kimi 1.5和DeepSeek-R1均使用Rule-based Reward提升模型推理能力。
MLNLP是国内外知名的人工智能社区,致力于促进机器学习与自然语言处理领域的学术交流和技术进步。文章讨论了Reinforce++和GRPO作为PPO变体的应用及其改进,包括去除critic模型、使用远程奖励模型以及在GRPO基础上优化KL估计方法等技术进展。
该项目基于Hugging Face Open-R1和trl构建,并重现了DeepSeek R1训练方案。通过合成数据生成、监督训练和强化学习(使用GRPO策略优化)等步骤,旨在提高模型进行文本到图信息提取的能力。
Unsloth AI 提供了 GRPO 训练算法,使用户能够在仅 7GB VRAM 上重现 DeepSeek R1-Zero 的‘顿悟时刻’,相比传统方法减少约80%的 VRAM 使用量。
DeepSeek R1 模型利用 GRPO 算法实现自主学习能力,仅需 7GB 显存即可训练出具备推理能力的模型,大幅降低训练门槛和成本。