打造潜在「灭世武器」的OpenAI,居然坚持「造了再说」!
在最新彭博社专访中,OpenAI的CEO Sam Altman做出了一个令人震惊的表态:即便他认为OpenAI正在开发的技术可能会导致人类灭绝,但唯一的应对方式就是继续开发,看看会发生什么。
这可不是在开玩笑!
让我们仔细看看这位AI巨头掌门人究竟说了些什么。
萨姆·阿尔特曼访谈:OpenAI CEO谈ChatGPT、核聚变及特朗普政府
来源链接: 彭博商业周刊
发布时间: 2025年1月5日
更新: 2025年1月6日
导语
2022年11月30日,OpenAI网站的访问量从零开始飙升到令人瞠目结舌的水平。短短两个月内,超过1亿用户蜂拥而至,体验并热议ChatGPT。从此,OpenAI及其CEO 萨姆·阿尔特曼的命运被彻底改写。在这次深度访谈中,阿尔特曼反思了ChatGPT的首两年,畅谈他作为OpenAI领导者的经历,以及对人工智能(AI)发展的长期愿景。他同时对特朗普-马斯克政府的影响、追求通用人工智能(AGI)的挑战以及公司文化作出了独到见解。
创始之初:一场决定性晚宴
阿尔特曼回忆起OpenAI的创立过程时,提到了2015年的一次关键晚餐。他与共同创始人 伊利亚·苏茨克维尔 (Ilya Sutskever)在加州的The Counter餐厅首次见面。这次会面被他视为OpenAI战略的奠基时刻。
“那时谈AGI简直是异端,可能毁掉职业生涯。但我决心推动这一进程。”
他解释说,彼时AGI尚处于边缘地位,而深度学习的潜力让他意识到这是一场值得押注的技术革命。苏茨克维尔的技术洞见与愿景,进一步加深了他的信念。
ChatGPT的发布与冲击
ChatGPT于2022年11月30日发布时,阿尔特曼就预感到这会成为现象级产品。尽管团队对此存有疑虑,他依然力主上线。发布初期的用户增长曲线令他确信:“我们手上有一个大家尚未完全理解的产品。”
在面对巨大的用户需求时,公司不得不仓促设计出订阅模式来支撑服务器开销。阿尔特曼提到,从GPT-3.5到GPT-4的迭代,为ChatGPT赢得了全球关注。
通用人工智能的愿景与现实
阿尔特曼坦言,尽管AGI的定义模糊,他的个人标准是:“当AI系统能够胜任高度复杂的专业工作时,便可称为AGI。” 他强调,OpenAI的使命是实现AGI,但公司也意识到社会对AI技术应用的需求,例如医疗、搜索等领域。
芯片供应:与英伟达合作与自研计划
阿尔特曼将芯片供应问题列为AI行业发展的核心挑战之一。
他指出:
-
英伟达合作:
-
英伟达是OpenAI的重要合作伙伴之一,他称其为“绝对令人难以置信的公司”。 -
OpenAI依靠英伟达的GPU提供大规模算力支持,满足模型训练和推理的需求。 -
阿尔特曼特别提到,英伟达在AI硬件方面的领先地位对行业至关重要。 -
自研芯片:
-
OpenAI正在开发自有AI芯片,目标是提高算力效率并降低对外部供应链的依赖。 -
他透露,OpenAI与博通(Broadcom)合作,聚焦于推理芯片的研发,这将显著提高性能并降低成本。 -
此外,OpenAI正与多家数据中心合作伙伴携手建设基础设施,保障长期算力需求。
能源需求:核聚变的希望
阿尔特曼对AI发展的能源消耗表示担忧,同时展现了对核聚变技术的坚定信心。
-
能源短缺的短期影响:
-
当前AI模型的规模和复杂性持续增长,这对电力的需求也在激增。 -
阿尔特曼提到,如果无法解决能源问题,AI的发展可能与全球气候目标相冲突。 -
核聚变:长远解决方案
-
阿尔特曼认为,核聚变将彻底改变能源行业,为AI提供可持续、低碳的电力支持。 -
他提到,OpenAI投资的核聚变公司 Helion Energy 即将展示具有“净能量增益”的核聚变技术。 -
尽管从技术演示到商业化仍需数年时间,但阿尔特曼坚信核聚变是“人类未来能源的关键”。 -
快速许可核聚变反应堆:
-
他呼吁加速美国在核聚变技术上的审批和建设。 -
他表示:“我们的核聚变技术非常优美,应尽快推动其应用,这将大大减少能源对气候的影响。”
AI增长与环境目标的平衡
阿尔特曼承认,AI的大规模增长可能与气候目标存在潜在矛盾。然而,他相信通过核聚变等新技术,AI行业可以在未来几年内实现碳中和。他强调:
“快速推进核聚变技术,是解决能源与AI发展矛盾的最佳方案。”
马斯克与特朗普:复杂的关系
阿尔特曼评价了埃隆·马斯克在政府中的角色,认为尽管马斯克行为乖张,但不会滥用政治权力干预AI行业竞争。
他还为个人向特朗普总统的就职基金捐款一事辩护:
“我支持美国总统,无论是谁,因为AGI的发展超越政治,需要政府支持基础设施建设。”
AI的未来:挑战与希望
三大瓶颈:
-
模型扩展: 阿尔特曼对OpenAI在规模和能力提升上的技术进展感到乐观。
-
芯片供应: 他强调与Nvidia等公司的合作,同时透露OpenAI正研发自有芯片。
-
能源消耗: 阿尔特曼对核聚变技术的潜力充满信心,并认为快速推进核聚变发电许可是AI发展的关键。
安全性与社会责任
阿尔特曼提到,OpenAI设有多个安全委员会,以平衡AI的能力开发和风险管理。他承认AI存在网络安全和生物技术滥用等短期威胁,但认为逐步发布和学习是应对长期风险的最佳途径。
总结:专注长远,不为成功分心
阿尔特曼表示,他的核心目标是确保OpenAI不因短期收益而偏离追求AGI的轨道。他深知,AI不仅将重塑科学发现的速度,还可能成为未来几十年影响最深远的技术。
“尽管AI的潜力令人振奋,我们不能被眼前的成功或挑战所迷惑。AGI才是终极目标。”
那么,Altman 这惊人发言背后究竟有何深意呢?
「造就完了!」还是「造了再说!」?
对于Altman的这番言论,科技圈可谓议论纷纷。
Jade Cole(@JadeCole2112)直言不讳地评论道:
「他是个推销员,对不同的受众有不同的说辞。跟投资者谈,他聊AI代理和员工;跟监管者谈,他就说危险和监管;跟公众谈,他说你根本注意不到AGI的到来。」
而AGIHound(@TrueAIHound)则更加尖锐地指出:
「Altman既是末日论者又是加速主义者。我一直认为末日论者和加速主义者是同一枚骗局硬币的两面。」
「边造边学」还是「玩火自焚」?
面对质疑,也有人为Altman辩护。
TechnoPulp(@TechnoPulp)认为这是一个合理的观点:
「这听起来可能违反直觉,但他说得有道理:你无法提前足够准确地预测其行为,所以你实际上需要更好地了解它是如何工作的(即继续开发)才能更好地理解风险的本质。」
但kepouros(@logokepouros)对此嗤之以鼻:
「这大概就是加州纵火犯在发布他们的『产品』时互相说的话吧。」
「生存游戏」还是「科技豪赌」?
Last Day With You(@Last_DayWithYou)揭示了一个有趣的细节:
「『我们正在打造潘多拉魔盒,但我们必须打开它才能完全理解它——希望我们能活下来。』人们知道他据说有地堡和末日物资储备吗?他似乎一边在X上让人们为新的生成式模型疯狂,一边在为自己准备后路。这就像一边玩火一边握着灭火器。」
Spencer Reiss(@spencerreiss)则将这种逻辑与另一个危险领域进行了比较:
「这听起来令人不安地类似于病毒功能增益研究的逻辑。」
「继续前进」还是「悬崖勒马」?
面对这些质疑,Altman显然已经做出了自己的选择。在彭博社的采访中,他表示「保护研究的核心对我们来说至关重要」,并强调「我们的目标是构建AGI和超级智能以及随之而来的一切」。
有趣的是,他同时也承认「可能会有许多美妙的事情发生,这些都可能会让我们偏离最终目标」。但他坚持认为「重要的是不要分心」。
在这场关乎人类命运的豪赌中,OpenAI显然选择了「造了再说」的道路。而这条路究竟通向人类文明的新纪元,还是通向Altman地堡中的末日狂欢,恐怕只有时间才能给出答案。
(文:AGI Hunt)