7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM Transformer作者团队

不圆 发自 凹非寺
量子位 | 公众号 QbitAI

Thinking模式当道,教师模型也该学会“启发式”教学了——

由Transformer作者之一Llion Jones创立的明星AI公司Sakana AI,带着他们的新方法来了!

这个方法要求教师模型像优秀的人类教师一样,根据已知解决方案输出清晰的逐步解释,而不再是从头开始自己解决。

用Sanaka AI的新方法训练出的7B小模型,在传授推理技能方面,比671B的DeepSeek-R1还要有效。

训练比自己大3倍的学生模型也不在话下。

对此有网友评价:我们刚刚才意识到,最好的老师不是房间里最聪明的人。


像人类老师一样

许多高级推理模型,如DeepSeek-R1,遵循两阶段的训练过程:首先训练教师模型,然后使用其输出训练学生模型,最终产品为学生模型。

传统上,这些教师模型通过昂贵的强化学习(RL)进行训练,模型必须从头学习解决复杂问题,只有在得到正确答案时才会获得奖励:

先让教师模型得到问题的答案,再把答案仔细过滤并重新用作学生模型的训练数据。

这种方法缓慢、昂贵且往往过于偏狭,过于依赖教师模型自身能力。因为教师模型拿到的仅仅只有问题,它们需要自己思考给出结果。

而Sanaka AI的新方法不再通过解决问题来教学,而是让新的强化学习教师(RLTs)“学会教学”

要求它们根据已知解决方案输出清晰的逐步解释,就像优秀的人类教师一样。

就像一位好教师不需要重新发现数学定理来解释它们一样,RLTs在输入提示中既获得问题的内容,也获得每个问题的正确答案

它们的任务是提供有助于学生模型学习的、逐步的详细解释,从而连接这些知识点。如果学生模型能够根据教师对问题的解释轻松理解正确解决方案,那么这就是RLTs做得好的信号。

也就是说,对RLTs的奖励不再是能自己解决问题,而是能解释对学生模型有多有帮助。

Sanaka AI的新方法解决了传统方法中的两个问题:

首先,新方法的训练循环使教师训练与其真正目的(为学生进行蒸馏/冷启动提供帮助)保持一致,从而大大提高了效率。

其次,将问题和正确答案同时输入RLT,能帮助原本无法独立解决问题的小型模型学会教学。

这些特性使Sanaka AI的新方法能更快、更经济、更有效地训练出具有强大推理能力的学生模型。

小型教师模型的“不合理但有效”

为了验证新方法的有效性,Sanaka AI用新方法训练了一个7B的RLT小模型作为教学模型与此前最先进的方法进行比较。

竞争方法使用规模更大的模型,如DeepSeek-R1和QwQ,并结合GPT-4o-mini等工具在用于训练学生模型之前清理其输出,以获得额外帮助。

结果发现:使用相同的Qwen2.5学生模型、相同的问题以及相同的评估设置,RLT以远少的计算量取得了比DeepSeek-R1和QwQ更好的效果。

把学生模型的规模扩大,结果同样令人惊讶:7B的RLT成功训练了一个32B的学生模型,其规模是自己四倍以上,并取得了优异的成果。

Sanaka AI的新方法还可以和传统RL方法相辅相成:

上图展示了在2024年美国邀请数学考试(AIME)、竞赛数学和研究生级问答基准(GPQA)上的平均性能。

新方法和传统RL方法联合使用,使RLT获得了改进性能,并补充了传统RL方法在问题解决方面的应用。

用作起点时,RLT帮助学生模型达到了更高的性能水平。

从成本角度来看,差异非常显著:使用RLT训练32B的学生模型仅需单个计算节点一天时间,而传统RL方法在相同硬件上需要数月。

一项定性分析揭示了RLTs提供的解释与Deepseek-R1的蒸馏轨迹之间存在一些差异:

Deepseek-R1的输出常常依赖于外部工具,例如计算器、网络上的讨论以及玩梗,包括一些具有误导性的内容。

相比之下,RLT提供的解释避免了令人困惑的语言,并增加了额外的逻辑步骤来帮助学生。

这些直观的改进能够转化为学生语言模型的改进学习,像人类专家一样简洁且清晰。

(文:量子位)

发表评论