


从语言理解到逻辑推理:AI 正驶入“深入思考”的拐点
近年来,大语言模型(LLMs)在自然语言处理任务中屡创佳绩,但真正推动它们迈入智能进化新阶段的,是一种更具层次性的推理方式:长思维链(Long Chain-of-Thought, Long CoT)。
这一策略不再局限于线性推演,而是鼓励模型在更广泛、更深层的逻辑空间中展开探索、反思与修正,使其在数学、编程、科学问答等复杂任务上表现出超越直觉的“推理能力”。
然而,围绕长思维链的研究尚处于碎片化阶段。它与短思维链之间的本质区别到底是什么?它是如何增强模型的推理能力的?又在哪些情境下可能导致负担或失效?我们又该如何科学引导它在实际任务中发挥最大效能?
为了弥补该空白,该综述系统梳理了截至目前近 1000 篇相关文献,从定义建构到能力评估,从关键现象到未来趋势,首次为长思维链推理研究搭建起一套统一、清晰的认知框架。

论文标题:
Towards Reasoning Era: A Survey of Long Chain-of-Thought for Reasoning Large Language Models
论文主页:
https://long-cot.github.io/
论文地址:
https://arxiv.org/pdf/2503.09567
Github仓库:
https://github.com/LightChen233/Awesome-Long-Chain-of-Thought-Reasoning

长思维链 vs. 短思维链:它们的区别是什么

▲ 图2:长思维链和思维链之间的差异具有三个关键特征:深度的推理,适当的反思和广泛的探索。此外,长思维链整合了所有这些特征以实现更好的逻辑效果
在大模型推理能力不断演进的过程中,长思维链(Long Chain-of-Thought, Long CoT)与短思维链(Short CoT)逐渐显现出本质性的差异,代表着两种不同的推理范式:
-
短思维链通常采用浅层、线性的推理方式,逻辑路径较短,几乎不具备回溯与检验机制,一旦出错难以纠正。它追求快速得出结论,但在应对需要多步推导或复杂逻辑关系的问题时往往力有未逮。
-
相较之下,长思维链打破了这些限制:它支持更大的推理深度、更灵活的并行探索能力以及对中间步骤的反思与修正,使模型得以在更复杂的逻辑网络中进行深入分析,发现潜在关系,并动态调整推理路径。

三大核心特性:长思维链推理优势的关键
支撑长思维链在复杂任务中表现出色的,是其兼具深度推理、广泛探索与可行性反思三大能力。这三者共同构成了长思维链超越短思维链的核心机制。进一步地,我们将详细解析长思维链推理优势的核心秘诀:
-
深度推理(Deep Reasoning):短思维链在处理复杂任务时往往受限于逻辑节点数量,推理路径短,仅适用于结构简单的问题。而长思维链打破了这一局限,推理路径可以大幅扩展,涵盖更丰富的逻辑层级,从而应对多步推理甚至递归推导类问题,尤其在数学推理、符号演绎等领域展现出极强的优势。
-
广泛探索(Extensive Exploration):短思维链往往固定在单一路径上进行线性推理,缺乏解空间的多样性。而长思维链则具备发散式思考能力,能够拓展多个逻辑分支,进行并行的可能性探索,从而显著提升推理的鲁棒性和准确率。这一特性在存在多种解法或需要跨领域联想的任务中尤其重要。
-
可行性反思(Feasible Reflection):短思维链的推理结构难以支持回溯和自我修正,一旦出现误判,难以纠正。而长思维链引入了反馈机制,使模型能够在推理过程中主动反思与校验已有步骤,根据反馈调整推理路径,降低错误积累风险,提升整体推理质量。

六大典型现象:长思维链能力的系统刻画与核心机理

▲ 图3:对长思维链外部行为六个经典现象的分析:(a)当前推理大模型为何会产生长思维链;(b)当前长思维链系统的推理边界及其局限性;(c)当超出推理大模型的推理边界时,过度思考可能导致的性能衰退;(d)测试阶段扩展方法的应用及其扩展规律与局限性;(e)使用过程中的奖励模型与结果奖励模型效果对比;(f)“顿悟”时刻的探索及其潜在原因。
研究表明,长思维链通过多种方式增强了推理大模型的推理能力,主要表现为:
1. 长思维链涌现现象
研究表明,长思维链的能力并非后天“拼接”得来,而是在预训练阶段已被隐式编码。通过上下文示例(in-context-learning examples)或特定提示(prompting)即可激发其潜在能力。
进一步研究发现,通过强化学习(Reinforcement Learning, RL)机制,也能高效直接地激活并引导这一推理结构在模型中显现。
2. 推理边界(Reasoning Boundary)现象
尽管长思维链拓展了模型的推理空间,但其能力并非无限扩张。一旦任务复杂度超过某一临界阈值,模型性能会出现明显下滑。这一“推理边界”说明,模型在逻辑容量和推理步数上存在结构性限制,超出边界后易产生推理错误的累积,从而削弱整体解答质量。
3. 过度思考(Overthinking)现象
在推理路径不断延长的过程中,模型性能并非持续上升。研究发现,推理效果在达到某一最佳长度后出现反转,错误率反而上升。
其背后的机制被称为“雪球效应”(snowball errors):早期小幅误判被过度的反复思考不断放大累积,最终影响整条推理链的稳定性。部分研究将此现象视作推理边界“越界效应”的一种表现。
4. 推理扩展性(Inference Test-Time Scaling)现象
推理路径的拓展包括“垂直扩展”(增加推理深度)与“并行扩展”(同时探索多个路径)。尽管二者均有助于增强解答覆盖率,但也存在性能瓶颈。例如,并行扩展虽能提升结果多样性,却难以突破最优验证策略的约束,从而限制其在实际任务中的提升幅度。
5. 过程奖励 vs. 结果奖励的训练差异现象
在强化学习优化推理路径时,不同奖励设计策略对推理质量具有显著影响。
过程奖励模型(Process Reward Model, PRM)可提供更细粒度的中间反馈,便于推理路径的连续优化。而结果奖励模型(Outcome Reward Model, ORM)则聚焦于最终答案,训练效率较高但缺乏对中间推理过程的直接干预。尽管两者在数据质量相当时性能接近,但机制本质存在显著差异。
6. 顿悟时刻(Aha Moment)现象
在推理过程中,模型有时会出现突如其来的结构性突破,即“顿悟”时刻。此类认知飞跃常伴随思路重组或错误纠偏,表现出类似人类的思维跃迁。研究表明,结合规则引导的强化学习策略(rule-based RL)可有效触发这一现象,使模型在缺乏监督的情境下完成自我重构与路径优化。

深度推理:构建长思维链逻辑深度的关键路径
深度推理(Deep Reasoning)是长思维链的核心能力,它直接决定了推理大模型在处理高复杂度任务时的表现。然而,当推理深度不足时,模型往往难以胜任多层递进式推理,导致在数学、符号逻辑等任务中的表现显著下滑。
当前研究主要从两个角度切入:一是深度推理格式(即如何设计推理路径的表达结构),二是深度推理学习(即如何训练模型掌握这类推理能力)。二者相辅相成,构成了提升模型深度推理能力的关键路径。
5.1 深度推理格式:优化推理能力的逻辑表达
长思维链的推理能力构建在多样的推理逻辑表达方式之上,当前主流格式包括以下三类:

▲ 图4:深度推理格式主要分为三类:自然语言、结构化语言与潜在空间推理(进一步细分为基于 token、向量和管理器驱动的潜在推理)
自然语言推理(Natural Language Reasoning)以自然语言为载体组织推理过程,形式灵活、可解释性强,是最直观且通用的推理方式。
结构化语言推理(Structured Language Reasoning)使用代码或符号逻辑进行精准推理,适合具有明确逻辑规则的任务,如程序验证、逻辑证明等。
潜在空间推理(Latent Space Reasoning)在隐空间中执行推理操作,以提升连贯性与效率。该方法主要包括三种策略:
-
基于 Token 的潜在推理**:通过“推理 Token” 或“思维 Token” 引导模型进行隐式逻辑运算;
-
基于向量的潜在推理:使用“思维向量(Thought Vectors)”在不同模型层之间管理隐试推理状态,使过程更加稳健与动态;
-
基于管理器的潜在推理:引入“推理管理器(Reasoning Manager)”对推理过程进行控制调度,例如 ITT(Input-Token-Tuning)通过自适应 token 筛选提升执行效率。
5.2 深度推理学习:优化推理能力的训练方法
要真正赋予大模型深度推理能力,仅靠推理结构的设计还远远不够,还需搭配高质量的训练机制加以支撑。
目前主流的策略可分为两类:模仿学习(Imitation Learning)和自学习(Self-Learning)。前者强调从高质量样例中提取推理范式,通过归纳总结迁移给模型;后者则致力于让模型在任务过程中通过强化反馈持续优化自身策略,具备更强的自主适应性。

▲ 图5:深度推理学习的不同策略,包括:(a) 深度推理模仿学习,即模仿来自高级深度推理系统(如高级推理大模型、MCTS 等)产生的数据,通过监督微调训练推理模型;(b) 深度推理自我学习,即通过隐式奖励驱动的基于偏好的强化学习,实现推理模型的自我改进与优化。
5.2.1 深度推理模仿(Imitation Learning)
模仿学习通常采用监督微调方法,通过对高水平推理路径的学习,使模型掌握复杂任务所需的推理思维方式。具体包括三种常见路径:
-
模仿人类推理:借助人工标注的高质量数据,让模型学习人类在深度推理中的语言表达与思维逻辑。
-
模仿强模型推理:以表现更优的推理大模型为“教师”,对能力有限的“学生”模型进行指导训练,加速其复杂推理能力的习得。
-
模仿扩展采样策略:结合如 MCTS(蒙特卡洛树搜索)等策略采样高质量推理路径,使模型在长思维链任务中学习更优的解题结构。
5.2.2 深度推理自学习(Self-Learning)
相比模仿,自学习强调模型的自主优化能力,主要借助强化学习(RL)框架不断调整推理路径。常见方法包括:
-
直接采样自学习:模型通过对自身生成内容的采样与偏好反馈,形成内在优化信号,实现自我提升。
-
树搜索采样自学习:引入如 MCTS 等结构化搜索算法,引导模型在潜在推理空间中主动探索,从而构建更具逻辑深度与连贯性的推理路径。

可行性反思:构建长思维链的自我修正能力的关键机制
在长思维链推理中,可行性反思(Feasible Reflection)是保障逻辑链条准确性与鲁棒性的核心机制。它包含两个紧密协作的环节:反馈(Feedback)与改进(Refinement)。

▲ 图6:可行反思的反馈能力框架包括总体反馈与过程反馈两种形式。总体反馈包括:结果奖励模型(以数值形式进行反馈、基于规则的正确性判断机制,以及基于推理大模型的总体评价模型。过程反馈则包含:以数值形式提供反馈的过程奖励模型,以及基于推理大模型的逐步评价模型。此外,过程反馈还可结合操作系统环境、真实环境或图形界面环境等进行交互式评估。
6.1 反馈(Feedback):从全局评估到细节优化
反馈机制作为推理优化的首要环节,承担着识别问题、引导修正的关键角色。它不仅可以从全局层面对推理输出进行综合评估,也能在细粒度上对推理过程中的每一步骤提供动态信号,帮助模型提升链条逻辑的连贯性与稳定性。
从功能划分上来看,反馈机制主要包括两类形式:
-
整体反馈(Overall Feedback):着眼于推理结果的整体质量,为模型提供全局优化方向;
-
过程反馈(Process Feedback):聚焦推理链中间步骤的实时评估,可与任务接口或模拟环境结合,实现交互式反馈控制。
6.1.1 整体反馈(Overall Feedback):聚焦结果导向的全局判断
整体反馈不干涉推理链的具体执行过程,而是针对最终输出进行评估,常被用于强化学习框架中的奖励建模。典型策略包括:
-
结果奖励模型(ORM):通过数值评分评估输出的质量,有时结合自一致性机制优化奖励信号;
-
规则提取(Rule Extraction):根据领域规则对推理结果进行结构化校验,已在 STaR、ReST、ReFT 等系统中表现出优于 ORM 的反馈精度;
-
批判性反馈模型(Critic Models):利用模型的自我反思能力生成文本化评价,既具灵活性,又具解释性,可作为强化学习中的附加奖励信号。
6.1.2 过程反馈(Process Feedback):推动推理链条的细节修正
过程反馈深入到推理路径的内部,对每一步决策进行实时打分与分析,主要用于优化推理链的中间结构,典型方法包括:
-
过程奖励模型(PRM):结合监督微调(SFT)或直接偏好优化(DPO)训练的打分器,为推理的中间步骤生成稳定且可学习的数值奖励;
-
批判性反馈模型(Critic Models):赋予模型在执行过程中自我监督与校验的能力,通过动态文本反馈提升链条的一致性与稳健性。
6.1.3 混合反馈(Hybrid Feedback):整合全局与局部的双重优势
为了兼顾宏观结果与局部逻辑的优化效果,近期研究开始探索混合反馈机制。该方法将整体反馈的方向性引导与过程反馈的细节修正能力结合起来,形成更具弹性与鲁棒性的推理优化方案,从而有效增强长思维链在复杂任务中的逻辑连贯性与输出质量。
6.2 改进(Refinement):实现推理路径的自我优化
在反馈机制的支撑下,改进(Refinement)机制推动模型主动修正不合理推理路径,是长思维链构建高质量输出能力的关键。当前主要分为三类主流策略,如图 7 所示:

▲ 图7:改进方法主要分为三类:(a) 基于提示的改进生成,通过构造合适的提示策略,引导模型进行可行的反思过程并产出修正答案;(b) 基于监督微调的细化模仿,利用来自高级推理大模型的改进示例,通过监督学习对模型进行微调;(c) 基于强化学习的改进学习,模型根据反馈信号(如奖励)对自身生成的修正进行优化,逐步学会自我改进推理与输出。
-
基于提示的改进(Prompt-Based Refinement)模型先生成初步推理,然后利用自身反思能力对路径进行迭代优化,具有部署简单、无需额外训练的优势。
-
基于监督微调的改进(SFT-Based Refinement)通过引入来自强大推理模型或人工标注的修正示例进行监督训练,使模型系统性学习反思逻辑,提升整体纠错能力。
-
基于强化学习的改进(RL-Based Refinement)借助任务奖励等外部反馈信号,引导模型在推理过程中进行动态路径调整,减少对人工数据的依赖,增强推理路径的自适应性。

广泛探索(Extensive Exploration):拓展长思维链推理边界的关键策略
探索能力是长思维链推理区别于传统线性路径的关键特征之一。它赋予模型在复杂问题空间中开展策略性分支、路径试探与反思优化的能力。研究显示,“假设分支”与“基于反思的错误回溯”是突破思维线性束缚、提升推理表现的重要策略。
当前探索类研究主要聚焦于三个方面:探索规模化、内部自主探索、外部引导探索,以不断拓宽模型的推理能力边界与任务适应性。

▲ 图8:推理测试阶段的两种常见扩展策略示意图,包括: (a) 纵向扩展:通过延长模型的长链式思维过程以增强推理能力,但受限于大语言模型的推理边界,最终可能难以突破性能瓶颈。 (b) 横向扩展:通过增加采样次数生成多个推理结果,并结合自一致性、自验证等机制进行结果验证与整合,从而提升输出的整体质量,但其性能上限仍不超过 Pass@k 指标所代表的理论最优水平。](images/image-7.png)
7.1 探索规模化(Exploration Scaling):优化推理长度与广度
探索规模化旨在提升推理大模型在路径长度与路径数量两个维度上的能力,使其在复杂任务中具备更强的结构灵活性与解答覆盖率。该策略主要包括垂直扩展与并行扩展两类方法,分别对应对推理链深度与解路径多样性的系统优化。
7.1.1 垂直扩展(Vertical Scaling):向深处推理
垂直扩展关注如何延长模型的推理路径,从而增强逻辑递进能力与问题分解深度。典型策略包括:
-
推理时扩展(Test-time Scaling):在推理阶段投入更多计算资源,延长思维链长度,以容纳更复杂的逻辑结构;
-
隐空间扩展(Latent Space Scaling):在注意力窗口受限的条件下,借助递归计算或向量空间传播机制,在隐空间中延展推理结构,突破显式输入的物理限制。
7.1.2 并行扩展(Parallel Scaling):向广处探索
并行扩展则致力于生成多个推理路径,通过采样与验证策略筛选最优结果,从而提升输出的整体鲁棒性与准确性。当前主要方法包括:
-
自一致性(Self-Consistency):通过多轮采样并采用多数投票方式,整合多个独立推理路径,提升最终答案的稳定性;
-
细粒度自一致性(Fine-grained Self-Consistency):在路径整合基础上引入逐步验证机制,从中间节点起进行链式校验,有效抑制前期误差传播;
-
短路径多样化采样(Diverse Short-path Sampling):通过调整采样温度、引入语言变体或跨模态策略,实现推理路径的结构多样化与语言多样性,提升模型的泛化能力与问题适应性。
7.2 内部自主探索(Internal Exploration):强化学习驱动的推理优化
“内部探索”聚焦模型在无外部干预下自主学习与优化推理路径。该策略依赖于强化学习(RL)与奖励设计(Reward Strategies),强化推理策略的泛化能力。

▲ 图9:用于优化内部探索的两类主要方法: (a) 强化学习策略:通过参考模型与价值模型辅助,结合奖励模型进行优势聚合,从而提升策略模型的输出质量,实现策略优化。 (b) 奖励策略:根据模型输出设计奖励机制,包括规则驱动奖励,例如使用正则匹配或测试用例打分;以及模型驱动奖励,基于如和 PRM等评价模型生成奖励,以提升强化学习性能。
7.2.1 强化学习策略:让模型自我改进推理过程
强化学习为推理路径优化提供了动态更新机制,当前主流方法可分为两类:
-
基于奖励模型的 RL:如 Proximal Policy Optimization(PPO)和 Group Relative Policy Optimization(GRPO)等策略优化算法,通过显式奖励信号引导模型学习更稳定、高质量的推理路径;
-
无奖励模型的 RL:通过如 Direct Preference Optimization(DPO)或基于规则提取的奖励信号,模型可在无显式打分器的情况下,自主获取偏好反馈,实现隐式强化学习。
7.2.2 奖励策略设计:引导推理优化的关键信号
奖励机制是强化学习有效性的核心,直接决定模型所学习到的推理行为方向。当前常用的奖励设计包括:
-
正确性奖励:根据答案是否准确提供反馈,引导模型收敛至更优的推理输出;
-
格式奖励:确保推理过程遵循预设的语言结构或逻辑模板,避免非结构化推理带来的不可控输出;
-
长度奖励:激励模型生成更长的推理链条,以增强推理深度与过程覆盖性,但需谨慎控制其边界,防止冗长推理导致效率下降或错误累积。

▲ 表5:不同内部探索方法在多个基准测试上的性能表现,主要按 AIME 2024 排序。“-” 表示论文未报告该得分。
7.3 外部引导探索(External Exploration):融合外部系统增强推理能力
除了模型自身的优化,外部探索机制也在增强推理能力方面发挥了关键作用。此类探索结合了人类逻辑结构设计与模型自适应搜索策略,提升推理多样性与稳定性。
7.3.1 人类驱动探索(Human-driven Exploration)
依赖于人工设定的推理框架,如:
-
Tree-of-Thought(ToT):采用树状结构组织推理路径;
-
Forest-of-Thought(FoT):利用多棵推理树进行并行思维路径展开。
7.3.2 模型驱动探索(Model-driven Exploration)
由模型主导搜索结构与控制流程,常见技术包括:
-
束搜索(Beam Search)
-
A 搜索(A Search)
-
蒙特卡洛树搜索(MCTS)
这些搜索方法通常结合多种反馈信号(PRM、Critic、Q-Value、Verifier 等),实现反思增强与策略自适应。

▲ 图10:外部探索策略根据过程管理角色的不同可分为两类: (a) 人类驱动的探索:由人工设定的提示词与固定流程控制推理过程,探索结构通常为线性、树状或图状,但路径固定、缺乏适应性。 (b) 模型驱动的探索:由模型主导进行探索,具备反思与自适应搜索能力,采用动态结构并结合 Beam、A\*、MCTS 等搜索逻辑与多种反馈机制(如 PRM、Critic、Advantage、Q-Value、Verifier)来实现更灵活且高效的深度推理。

前沿研究与未来方向:拓展长思维链潜力的六大关键领域
长思维链推理正在不断突破原有边界,驱动大语言模型在多模态理解、跨语言泛化、智能体协作、效率优化、知识引导与安全保障等多个方向上展开深度探索。
未来的发展趋势不仅是“更长的推理链”,更是“更强的推理生态”。当前研究聚焦的六大前沿方向如下:

▲ 图11:长思维链的未来发展方向包括:(a) 多模态长思维链:融合多种模态的输入与输出(如图像、文字、公式等),增强推理表现力与适应性;(b) 多语言长思维链:支持跨语言推理与应用,提升模型的多语种通用性;(c) 具身智能与代理型长思维链:通过引入具身交互机制,提升模型在真实环境中的推理与行动能力;(d) 高效长思维链:优化推理路径与效率,加快思维链生成速度;(e) 知识增强型长思维链:引入外部知识库丰富推理过程,提高准确性与解释性;(f) 安全性保障的长思维链:强化推理过程中的可靠性,避免产生有害或误导性的输出,确保伦理合规。](images/image-8.png)
8.1 多模态长思维链(Multimodal Long CoT)
多模态长思维链旨在将推理能力拓展至图像、视频、语音等多种数据模态,提升模型对复杂任务的理解与应对能力。主要研究方向包括:
-
多模态提示(Prompting):增强视觉-语言模型的上下文描述与推理引导能力;
-
多模态蒸馏(Imitation):通过蒸馏策略学习多模态长链推理结构;
-
基于奖励模型的探索(Reward Model-Based Exploration):在训练与推理过程中引入奖励信号,优化多模态推理表现。
主要挑战在于多模态信息融合的效率与稳定性,以及如何在多模态输入下有效控制推理链的深度与一致性。
8.2 多语言长思维链(Multilingual Long CoT)
实现真正的通用推理模型,需要跨语言推理能力的支持。目前研究主要集中在:
-
跨语言提示(Multilingual Prompting):借助模板化提示,增强语言间逻辑对齐;
-
多语言训练(Multilingual Training):结合 SFT 与 RL 训练方式,提升低资源语言的推理表现;
-
测试时扩展(Test-Time Scaling):利用多语言树搜索机制,动态调整推理语言与路径结构。
未来的难点在于如何实现语言迁移中的推理一致性,尤其是在低资源语言与文化差异较大的语境中。
8.3 长思维链助力智能体与具身智能(Long CoT for Agentic & Embodied AI)
面向复杂环境中的推理与决策,长思维链不仅用于任务分解,还承担着动态调整与行为引导的作用。研究正在从以下方向展开:
-
基于树搜索的推理增强:通过 MCTS 等方法优化状态探索;
-
环境交互优化:具身模型可依据实时环境更新历史推理路径;
-
多智能体协作:支持多个推理智能体协同进行链式推理与信息整合。
主要挑战在于:如何在不确定环境下保持推理稳健性,以及如何协调多智能体间的推理路径整合与冲突消解。
8.4 高效长思维链(Efficient Long CoT)
长思维链虽具备强大的推理能力,但也常伴随推理路径过长、冗余推断等问题。因此,提升推理效率成为关键研究目标,主要策略包括:
-
推理链压缩(Direct Compression):通过剪枝、跳步等方式减少不必要的推理步骤;
-
潜空间推理(Hidden Space Reasoning):在向量空间中进行隐式推理,降低显式解码成本。
关键难题包括:如何构建自适应推理机制,使模型根据任务复杂度动态调整推理长度,并在效率与准确性之间取得平衡。
8.5 知识增强长思维链(Knowledge-Augmented Long CoT)
大模型在处理专业或事实密集型任务时,仍可能出现“知识盲区”。为提升推理的深度与准确性,研究者提出将外部知识引入长思维链中,方法包括:
-
检索增强生成(RAG):动态结合知识库与当前任务内容,提升推理覆盖率;
-
模型知识注入(Model Knowledge Injection):在 SFT 或 RL 阶段引入领域知识,提升特定任务下的推理表现。
面临的挑战包括:如何设计知识检索-推理整合的高效接口,以及如何保持知识更新性与推理一致性的统一。
8.6 长思维链的安全性(Safety in Long CoT)
推理能力越强,潜在的风险越大。长思维链的复杂结构与反复迭代,可能放大模型的错误输出与安全漏洞。目前主要关注以下方向:
-
推理攻击(Reasoning Attacks):如 “OverThink 攻击”或“迭代混乱攻击”可能诱导模型偏离正向推理;
-
安全优化机制:通过动态提示词、偏见检测、RL 安全性优化等方式,增强推理路径的可靠性。
研究仍需继续探索如何在保证推理能力的同时,抑制风险扩散、增强可解释性,并建立面向 adversarial 长链输入的鲁棒推理体系。
(文:PaperWeekly)