
新智元报道
新智元报道
【新智元导读】不是更大模型,而是更强推理、更像人!AGI离落地,还有多远?OpenAI前研究主管表示,AGI所需突破已经实现!
AGI所需突破已经实现!
OpenAI前研究主管Bob McGrew公开表示:AGI的「技术拼图」已经齐全,关键在于如何将推理能力落地,并重塑价值创造路径

作为研究主管,他见证了OpenAI从GPT-3的突破到如今推理模型的演变。
他认为,实现通用人工智能 (AGI) 的三大支柱是:
Transformer、规模化预训练和推理。
AI能力持续增强。在过去五年中,技术发展迅猛、令人兴奋。
而且这一趋势仍在延续,他认为并不存在所谓的「技术墙」。
在红杉的「训练数据」(Training Data)系列播客中,他分享了关于AI的洞见。


「除了预训练、后训练、推理这三部分外,未来可能不会再出现根本性突破。」
Bob McGrew的这个观点可能有争议。
但如果穿越到2030年, 总结实现更高智能(也许是AGI,也许是其他形式)所需的根本概念。
他认为,最终会得出全部关键点:
1. 基于transformer的语言模型;
2. 大规模预训练(比如GPT-1和GPT-2);
3. 推理能力的引入与不断提升;
4. 越来越多的多模态能力。
他甚至认为,到了2035年,我们仍然不会看到这些之外的新趋势。为什么这么认为?
回到2020年,那时GPT-3刚训练完成。可以想象一下当时OpenAI的情景:模型还未发布,但已经知道它带来了「划时代的变革」。
Dario Amodei、Ilya Sutskever、Alec Radford等一群人围坐在办公室,盯着这个模型。他们很清楚接下来的路线图是什么:
-
从GPT-3到GPT-4,预训练规模必须扩大;
-
必须增强多模态能力,最终发展出能使用电脑的模型;
-
开始探索「测试时计算」(test time compute)。

所以Bob认为,从现在起大家会继续扩大、改进和打磨这三个概念。这非常难,需要大量智慧和努力。但若干年后再回头看,我们不会看到有其他新出现的根本性技术趋势。
他认为如果错了,那未来将更加精彩。但现在,他觉得他是对的。

我们正处在AI发展的关键节点,见证了预训练、后训练与推理三者的融合。
而2025年是「推理之年」。
推理是种新技术。从2023年9月的o1-preview,到六个月后的2024年4月发布o3,仅用了六个月,期间进展迅猛。
同时,OpenAI多年开发的推理能力,正在向Google、DeepSeek、Anthropic等公司扩散——只在短短几个月内就实现了。
这说明,推理是各大实验室今年的重点方向。
而且推理模型领域目前还有很多成果,唾手可得。例如,o1-preview与o3之间最大的区别在于:
前者无法使用工具,而后者则能在「思维链」(Chain of Thought)中调用工具。
在训练o1时,OpenAI就知道推理很值得做,但实现起来很难,最终他们用了六个月将其开发并发布。
但推理的下一步并不直观。
随着推理能力趋于成熟,技术潜力也将逐渐被「消耗殆尽」。因此,进展的速度可能会放缓,不再像前期那样迅猛。


许多人说:「预训练正面临瓶颈」「Scaling Law即将终结」……
但Bob认为:「预训练仍然重要,但收益递减。」
之所以会出现收益递减,是因为模型的智能增长与所投入的算力呈对数线性关系——也就是说,要提升一定幅度的智能,就必须成倍增加算力。
本质上,预训练是规模巨大、耗时持久的训练过程,要用整个数据中心持续运行好几个月。而当要训练下一个新模型时,通常要在多个数据中心上完成。
这可以依赖一些算法效率的提升,但从根本上说,必须等新的数据中心建成。这无法像推理那样在六个月内完成改进,而是需要数年的时间。
不过,这并不意味着预训练无用。
2025年,预训练的真正杠杆在于架构的改进。
即使正在重点开发推理能力,仍然希望改进预训练,提高推理时的效率、支持更长的上下文或更好地利用上下文。而要做到这些时,就必须从头开始,在新架构上重新进行预训练,然后再进入整个推理优化流程。
所以,预训练仍然重要,但它在整个流程中扮演的角色已经发生了变化。

预训练和推理的目标是提升智能。在这两个环节中,有明确的「Scaling Law」:
投入更多算力,就能获得更高的智能。
后训练不提升智能,而是塑造模型的「人格」,与「智能」完全不同。
本质上,智能是「薄问题」(thin problem),只要做得更好,它的适应能力和泛化能力就会提升,几乎可以迁移到任何任务上——
比如你在数学上做得更好,就能更好地应对法律推理问题。
但「模型人格」是「厚问题」(thick problem)。
这需要去思考:「我希望这个智能体表现出什么样的个性?我希望它如何行动?」更像是人类多年与他人互动的成长过程。
而如何将人类对「好人格」的定义,转化为真实、吸引人的AI人格,这本身就非常难,值得深入研究。
这需要像OpenAI的Joanne Jang(下图左)或Anthropic的Amanda Askell(下图右)之类的「产品经理」,专门去设计模型人格。
她们对人性有非常深刻的理解。


推理为何关键?
主持人Sonya Huang对推理很感兴趣。

而OpenAI似乎很早就坚定地押注在这个推理范式上,可能比其他实验室都要早。
所以她问了Bob一个问题:「最初OpenAI为什么会对推理下注这么重?」
Bob McGrew认为推理是AGI缺失的关键拼图。
预训练可以让模型对问题有一种「直觉式的理解」。
但如果让人马上去计算2个五位数的乘法,对一般人来说完全做得到,但不能立刻得到准确结果。因为人类天生就需要「在回答前思考」——
人类需要「草稿纸」,慢慢推导。这就是早期模型(甚至包括GPT-3)所不具备的能力。
后来OpenAI开始关注到一些公开实验的启示——比如「逐步思考」(step by step thinking)、「思维链」(chain of thought)等概念。
OpenAI意识到模型可以自己引导推理过程,而不是仅仅模仿人类如何思考的样本。这种能力非常强大,而且可以被训练出来。
他们知道这会比单纯的预训练更具潜力,因为:
-
人类的思维是在脑子里的,不是模型能直接获取的数据;
-
公开的数据几乎都是「最终答案」,模型看不到中间推理过程;
-
所以模型必须自己推导出「思考的方式」。
这就是为什么OpenAI如此看重推理。
之前,Bob提到:「我们尚未揭示完全推理。」
主持人Stephanie Zhan继续追问道:「我们现在对推理理解得足够了吗?还是说还处在早期研发阶段?」

Bob McGrew认为行业一线依旧能看到大量新想法和细节上的改进,但局外人已经看不懂了。
现在,很多进展已经不会公开出现在论文中了。
就像以前,学术界还能做出很大的突破。但后来,当Bob再看到学术论文时,他会想:「哦,这个我们早就做过了,他们刚刚又重新发现了一次。」
如今,投入到这个方向的精力已经非常巨大。
因此,确实还有很多东西可以探索,但它们已经不是三言两语可以讲清楚的点子了。
(文:新智元)