
新智元报道
新智元报道
【新智元导读】GPT-5,已经被OpenAI员工抢先用上了?就在今天,奥特曼在X上关注了一个神秘人,引起全网猜测。不止两人爆料,自己可能提前体验了GPT-5,甚至也有网友疑似被灰度测试到了。今夏推出的GPT-5,已经掀起全网疯狂!
就在今天,关于GPT-5的讨论再度火了,X上的神秘爆料满天飞。
起因是这样的,Sam Altman在X上关注了了一个叫Yacine的人。
这个人说,自己刚刚试用了一个AI公司的大模型,体验非常震撼。他敢打赌,没有任何人能预料到前方即将来临什么样的风暴。
而另一位「Aidan」,也在这个帖子下面发言说,自己有同样的经历。

很多人猜测,他们测试的就是GPT-5。
原因在于,Aidan就是OpenAI的员工,而Yacine刚刚被xAI解雇,却忽然被奥特曼关注了,两人同时这样说,绝对不是巧合。
有很大可能,他们已经提前获得了GPT-5的访问权限。

甚至,他们看到的东西一定非常惊人,这可能就是互联网崩溃的前一刻。
另外还有知情人表示,Yacine一直在考虑创办一家初创公司,现在Altman关注了他,或许是打算挖他到OpenAI?

总之,如今全网再次陷入讨论GPT-5的热潮。

其实不怪网友多心,因为有越来越多的人,晒出了自己似乎被灰度测试GPT-5的经历。
比如这位网友,发现自己在使用OpenAI的模型时,被灰度到了一个全新的AI。
在没有提示的情况下,它就可以连续思考3分钟,同时还进行了大量搜索。


同样也是在26号,另一位网友发现,如果选择的模型是4o,ChatGPT会开始思考。这就让人怀疑,OpenAI是不是正在悄悄过渡到GPT-5。

此前在OpenAI播客中,奥特曼对于GPT-5的发布时间已经比较确定了——「可能是今年夏天的某个时候」。

而在一周前,奥特曼也出现在了YC在旧金山举办的AI创业学校活动中。

在采访中他这样透露:GPT-5会迈向完全多模态!
具体来说,预计今年夏天推出的GPT-5,是一个多模态模型,支持语音、图像、代码和视频等多种输入方式。
GPT-5不会完全实现OpenAI对未来模型的终极愿景,但将是过程中的重要一步。
而GPT-5系列模型的最终愿景,就是一个完全多模态的集成模型。
它将具备深度推理能力,能进行深入研究,生成实时视频,以及编写大量代码,即时为用户创建全新的应用程序,甚至渲染提供用户交互的实时视频。
当这一切实现时,将带来一种全新的计算机界面——几乎「消失」,变得无感。
再早些时候,在今年2月,奥特曼还曾在X上发文表示,OpenAI的一大目标,就是通过创建能使用所有工具、知道何时长时间思考或不思考的系统,来统一o系列和GPT系列模型,使其胜任广泛任务。
GPT-5模型将在ChatGPT和API中发布,整合语音、canvas、搜索、Deep Research等功能。

对于GPT-5,网友们也有诸多预测,有很多人觉得,它将成为首个真正的混合模型,可以在响应过程中在推理和非推理之间动态切换。

总结来说,它的关键特点是多模态、100万token的上下文、推理+记忆、更少的幻觉,以及o系列和GPT模型的融合。
可以说,它就是智能体的未来。

还有人预测,GPT-5的进步主要集中在以下几方面。
– 视频模态更「原生」,输入更自然;
– 智能体性能至少提升了50%,归功于 强化学习 的深度使用;
– 拥有更强的理解能力与直觉,特别是在任务链式执行或将多个已学行为组成更复杂任务的能力上;
– 可能出现层级结构(Hierarchy);
– 不只有「选择合适模型」这种小把戏,而是有VLM-VLM这样的架构,用小而快的VLM代替大型VLM,以提高通用性、速度和响应能力。

不过,倒是也有OpenAI内部员工自曝说,其实内部最多也就比公开可用的模型领先两个月,所以GPT-5不会有巨大的飞跃,只是略有提升而已,不同的是会与许多工具集成。

而就在一个月前,也有GPT-4.1的核心研究员Michelle Pokrass揭秘了GPT-5进展。
她透露说,构建GPT-5的挑战就在于,在推理和聊天之间找到适当的平衡。

她表示,「o3会认真思考,但并不适合进行随意聊天。GPT-4.1通过牺牲一些闲聊质量来提升编码能力」。
「现在,目标是训练一个知道何时认真思考、何时交谈的模型」。
同时,她还首次对外介绍了更多关于GPT-4.1背后开发过程,以及RFT在产品中发挥的关键作用。比如,在提升模型性能方面,GPT 4.1聚焦长上下文和指令跟随。
另外,微调技术在GPT 4.1扮演着重要角色,RFT(强化微调)的出现,为模型能力拓展带来新的可能。与传统的SFT相比,RFT在特定领域展现出了强大的优势。

在4月份,Sam Altman对团队核心技术的采访,也曾交代了一些关于GPT-4.5预训练的「知识」。

在采访中,部分回答了为什么「预训练即压缩」能通向通用智能?
indigo发帖表示:智慧的核心在于学习者通过压缩与预测,逐步捕捉到世界本身的结构性并内化为知识。

1. 所罗门诺夫启发
访谈中提到一个概念:Solomonoff Induction(所罗门诺夫归纳):
在所有可能描述(或解释)数据的「程序」中,越简单的程序,先验概率越大。还能通过贝叶斯的方式,不断更新对数据的解释。
在语言模型中,每成功多预测一个字或词,就意味着它找到了训练数据里的某种内在结构。
2. 更多「正确压缩」意味着更深层的理解
访谈里也多次强调:在多领域、多种上下文的数据中,模型反复预测(即查找「最优压缩」),就会逐渐学习到跨领域的抽象概念与关联。
这也就是大家常说的「涌现」或「通用智能」
3. 预训练与后续「微调/推理」策略的互补
预训练+定向的监督微调(或强化学习),则能让模型在某些推理、逻辑或任务场景下更加精准。
这两者结合,形成了GPT系列模型强大的通用能力。
无论如何,GPT-5的发布,必将给AI圈再次带来一场风暴。
显然,OpenAI的设想十分有野心。
在此前的一篇采访中,OpenAI首席华人研究科学家Mark Chen,就谈到了OpenAI通往AGI之路。

在公司的七年中,他领导了多项里程碑式的项目——o1系推理模型、文本到图像模型Dall-E,以及融入视觉感知的GPT-4。
在谈及AGI之时,Mark Chen表示,「我们采用非常广泛的定义,它不仅是ChatGPT,还包括了其他东西」。
一直以来,OpenAI将AGI视为AI的圣杯,并制定了五级框架来实现这一目标。

而现在,他们已经到达了第三级,智能体AI(Agentic AI)——能自主执行复杂任务和规划。
Mark Chen介绍称,OpenAI近期推出的两款AI智能体产品,Deep Research和Operator尚处于早期阶段。
Operator在未来,速度可以更快,轨迹可以更长,这些产品代表了OpenAI对智能体AI的雄心。
从这些内容中,我们或许也能隐约窥见GPT-5的端倪。
话说回来,最近OpenAI出走的两大高管Ilya和Murati也分别有了动静。
比如有媒体刚刚曝出,到处疯狂邀人的小扎,曾给Ilya发出一份价值320亿美元的「令人心动的offer」。

不过,Ilya看都不看一眼,大义凛然地拒绝了!
如此决绝地拒绝巨额收购要约,说明Ilya已经坚定决心,要独立推动AI的边界。显然,他正在追求比薪水更重要的东西。
相信SSI的首个模型/产品发布的时候,全世界都会为之震撼。


如今,成立仅一年的SSI已经成为AI领域中最受瞩目,也是最神秘的名字之一。
没有公开产品,没有演示,只有20多名员工,但在今年4月已经以320亿估值融资了20亿美元。
关于SSI我们仅能知道的线索是,它的使命是开发一个安全、对齐的超级智能AI系统,跟OpenAI日益商业化的方向形成了鲜明对比。
而就在几天前,前OpenAI CTO Murati创建的的Thinking Machines Lab(同样并无产品估值近百亿),被曝使命是「商业领域的RL」。

具体来说,公司将为企业提供定制化AI服务,重点是强化学习,专门针对收入或利润等关键绩效指标进行训练。
而且TML并非从零开始开发所有功能,而是依赖开源模型,将模型层进行整合,并使用谷歌云和英伟达服务器。除了B2B产品外,TML还计划推出一款消费产品。
这些从OpenAI出走的人才「散是满天星」,都在以不同方式向AGI前进。

而就在最近,在美国国会的听证会上,Anthropic联创Jack Clark表示:「未来18个月内,将会出现极其强大的AI系统。」

Jack Clark:Anthropic联合创始人及OpenAI前政策主管
他认为,所谓「强人工智能」可能比许多人想象的要早。
Clark表示,美国具备领先开发这种技术的条件,但前提是妥善应对随之而来的安全风险:
Anthropic认为,未来18个月内将会出现极其强大的AI系统。到2026年底,我们预计真正具有变革性的技术将会问世。
……
我们需要建立联邦立法框架,为我们指明清晰连贯的前进路径。
……
如果没有联邦层面的统一框架,我担心会形成监管真空 ……
因此,我们必须通过联邦框架找到前进的道路。
在这次听证会上,多位专家预测了AI时间表和未来风险。
Clark介绍了Anthropic进行的AI实验。
在模拟场景中,他们给Claude模型设置了极端的「死里逃生」情境——
AI模型被告知即将被一个新AI取代,同时它掌握了执行替换决策者的不利私密信息。在某些测试中,Claude试图以「泄露隐私」为威胁手段,来防止自己被关闭。
虽然这是实验设置中的极端情境,这表明强AI在面对「生存威胁」时,可能会出现复杂甚至不可预料的行为,预示着未来可能面临的重大风险。
最后,还可能发生一种极端情形:即AI系统在未来可能拥有「自我延续」的能力。也就是说,它们可以自己进行研究和开发,生成下一代更强大的AI系统。
这意味着,人类可能无法控制这些系统的演进方向。一旦进入这个阶段,AI就不再是人类工具,而可能成为脱离控制的独立实体。
去年,「AI教父」、诺贝尔物理奖得主、图灵奖得主Hinton,就强调过AI导致人类灭绝的风险。

这不是国与国之间的竞争,而是人类与AI的竞争,是人类与时间的赛跑:
在超级智能出现之前,能否提前建立起控制机制和安全防线。
因此,Clark主张:政府应设立专门机构来进行高风险AI的评估,比如美国国家标准与技术研究院(NIST)下属的「人工智能标准与创新中心」。
他强调,最理想的时间是在2026年之前,在强AI爆发前就准备好这些标准。
人工智能政策网络(AI Policy Network)的政府事务总裁Mark Beall也参加了听证会。

他建议美国尽快采取「三P战略」:Protect(保护)、Promote(推广)和Prepare(准备)。
其中,Prepare(准备)就是建立测试机制,预测未来AI系统可能产生的风险,特别是失控和被武器化的风险。
他还建议成立「机密测试与评估项目」,专门用于评估AI系统在「失控」和「武器化」方面的隐患,提供决策依据。
(文:新智元)