
图片来源:Hard Fork
Z highlights
-
我们认为,“隐私”与“AI”的关系,是关乎未来的一个关键议题,必须被严肃、妥善地解决。我们之所以坚持,是因为这不仅是技术问题,更关乎制度上的“先例”会怎么被建立。
-
未来,我们将拥有一整支由智能体、助手、甚至数字伙伴组成的“AI团队”,它们始终在后台主动帮你做事。这种方式,将彻底改变人们的工作方式、个人效率,甚至可能重塑我们日常生活的运作方式。
-
“心理健康”以及人们对AI模型的过度依赖之间的互动,正成为我们高度重视的问题,我们正在快速应对。AI与人类心理之间的交互影响,需要我们以更加敏感和迅速的方式去处理。
Casey Newton是科技领域撰稿人,常聚焦AI行业动态与深度对话;Kevin Roose作为《纽约时报》科技记者,追踪AI发展及相关争议;二者均是播客节目《Hard Fork》的主持人。Sam Altman是OpenAI首席执行官;Brad Lightcap负责OpenAI业务管理,助力AI技术落地与生态构建。本次访谈是Hard Fork直播的一个片段,该访谈首发于2025年6月26日Hard Fork频道。
轻松又诚意满满的对话开始——AI大佬们的“轻松开麦”时刻
Casey Newton:节目大概进行到一半了,我想简单地问一下,你们现在感觉怎么样?我们在这边玩得挺开心的,哇哦。你是认真的吗?(笑)不太可能吧。好吧,那挺好。
Sam Altman:他想回去了.
Casey Newton:别这样,来吧,来吧。是的,是的。你好,Sam。你好,Brad。
Sam Altman:见到你真好。
Casey Newton:我太喜欢了,今天我们是现场直播,朋友们!
Kevin Roose:你们现在要知道一个我们节目的重要真相,那就是——我们节目其实是剪辑过的(笑)。
Casey Newton:Kevin,你还有什么想补充的吗?在我们正式进入访谈之前?
Kevin Roose:有的。今天我们请到了来自OpenAI的Sam Altman和Brad Lightcap。
Sam Altman:能不能不要用你那一套开场方式。
Kevin Roose:你们可以趁机看看邮件什么的。本来我们是想稍微介绍一下你们登场的背景,讲讲OpenAI最近的情况,这可是一个非常忙碌的公司。
Sam Altman:比起其他安排,我更愿意在这里聊天,确实更有趣一点。
Kevin Roose:完全没问题,随时插话。你们可以当成是我们节目的Statler和Waldorf(《布偶秀》中喜欢吐槽的两个老头)也行。
OpenAI有关《纽约时报》起诉其不注重用户隐私的回应
Casey Newton:我就待在这儿好了。我其实准备了一份过去几周的新闻标题清单,如果你们看到哪条忍不住想翻白眼,尽管翻,没关系的(笑)。
Sam Altman:你是不是打算讲讲那个“你们起诉我们因为我们不在乎用户隐私”的话题?来吧,放马过来!
Casey Newton:Sam上台前最后跟我说的一句话是:“我不主动开火。”
Sam Altman:我确实说过。你拿这些新闻当引子,那我就顺势接了。
Casey Newton:那Kevin,你要不要谈谈《纽约时报》的事情?
Kevin Roose:对,我们也该做个信息披露:我们只是记者,我们本人并未参与这场诉讼。
节目早些时候
Kevin Roose:在我们正式开始之前,按照Hard Fork的传统流程,我们需要先做一下信息披露。因为今晚我们会聊到一些关于AI的内容。Casey,你来先说吧?
Casey Newton:好的。大家期待听披露吗?太棒了。我很自豪地说,我的男朋友在Anthropic工作,他今晚可能也在现场。亲爱的,我爱你。
Kevin Roose:我就职于《纽约时报》集团,而他们正在起诉OpenAI和微软,指控他们在训练大型语言模型时存在侵犯版权的行为。我说得没错吧?(笑)
回到现场访谈
Kevin Roose:当然,这些不是我们作为个人在节目中所表达的立场,也不代表公司官方观点。
Sam Altman:那你本人怎么看公司这个立场?
Kevin Roose:你问我怎么看公司的观点?Sam,你这是想让我被炒鱿鱼吗?
Sam Altman:不,我只是好奇你怎么想。
Casey Newton:Sam,Kevin很需要这份工作啊。
Kevin Roose:我没有别的技能了!
Sam Altman:看起来你们现在做的事情不少啊,不止是播客了吧。
Casey Newton:是啊,好吧,那你刚刚说的这句我就记下了。
Kevin Roose:我就当刚才那句没听见……
Sam Altman:你是支持这场诉讼的,对吧?
Kevin Roose:你说什么?
Sam Altman:我问你是不是支持这场诉讼。
Kevin Roose:我觉得大家应该去自己读一读相关的法律文件,然后形成自己的判断。
Casey Newton:对,民主!这就是民主的意义!
Sam Altman:那你自己呢?你个人怎么看?
Casey Newton:听起来你自己似乎对这场诉讼也有点想法啊。
Sam Altman:没有没有。其实我只是想说,我是支持用户隐私的。我并不认为公司应该——
Kevin Roose:你是不是要解释一下你具体在说什么?
Casey Newton:对,说清楚点,你到底想表达什么?
Sam Altman:哦……其实就是——你们现在正在起诉我们嘛,然后——
Casey Newton:我可是自由撰稿人啊!我写一份通讯,叫《Platformer》。
Kevin Roose:对啊,别把他也拖进来。
Casey Newton:没错,我和这事没关系。
Sam Altman:最近发生的一件事是——你们所在的机构,准确来说是你们的雇主……其实我也不确定该怎么称呼自由撰稿人。我们就说是《纽约时报》吧。这是一家历史悠久、非常伟大的媒体机构,一直以来都非常值得尊敬。但现在他们的立场是,我们必须保存用户的日志数据,哪怕是在“私密模式”下进行的对话、哪怕用户已经明确要求我们删除记录。这件事和其他诉讼不同,我们当然愿意在法庭上回应指控,但这个问题我们非常在意。我们认为,“隐私”与“AI”的关系,是关乎未来的一个关键议题,必须被严肃、妥善地解决。我们之所以坚持,是因为这不仅是技术问题,更关乎制度上的“先例”会怎么被建立。当然,我们依然尊重你们,也依然尊重《纽约时报》。但这件事情上,我们态度很坚定。
Kevin Roose:谢谢你分享你的观点。我只能说,当有人用你的数据做了一些你不太愿意看到的事情时,那肯定挺难接受的。我自己没这方面的经历,但也许其他人懂。好了,我们来正式开始提问环节吧。
Casey Newton:我最近在台上采访一位嘉宾时,他跟我说——奇点(ZP注:奇点象征某种突破性事件或转折点)到来的时候会很温和。我觉得这个说法挺妙的,就想提醒大家一下。
Kevin Roose:Casey,快开始读你准备的新闻标题吧。
Casey Newton:其实,说起来……我们还要读这些标题吗?还是直接进入问答环节吧?在座各位应该已经很了解OpenAI最近的动态了。
Kevin Roose:好,但我觉得还是有必要简单交代一下背景,让大家意识到你们现在在推进的事情有多广、有多密集。我们两个关注科技行业这么久了,还真没见过哪家公司能像你们这样,在这么多领域持续不断地制造新闻。比如说,你们正在和Donnie Ive合作开发硬件。ChatGPT还在高速增长。你们还签了一个国防合同——2亿美元的项目。还有跟Mattel合作开发AI玩具。
Casey Newton:你们大概是历史上第一家在同一周里,同时和Mattel还有军方签下合作协议的公司。
Brad Lightcap:哈哈,我喜欢这个说法。
Kevin Roose:比如你们正在推进Stargate——也就是那个大型数据中心项目;还有你们试图转型为盈利性公司的结构改革。总之,你们现在在做的事情真的太多了。Casey,你说呢?
Casey Newton:是啊,但我们想先聊点轻松的事。我想这个话题你们可能会觉得蛮有趣——那就是那个调皮的Mark Zuckerberg最近一直在挖你们的员工。(观众笑)我相信你们应该经常碰到这种情况,但我想知道,过去这几周他加大“攻势”之后,有没有什么特别荒谬或搞笑的场面?
Sam Altman:你觉得有没有哪件特别搞笑?
Brad Lightcap:太多了。
Casey Newton:太多了?
Brad Lightcap:说真的,我感觉我已经四年没怎么睡过觉了(全场大笑),所以现在基本没有什么事能让我感到震惊了。
Sam Altman:我觉得这份工作最奇特的一点就是:一周才刚开始,可能周一早上十一点,就已经发生了一堆完全意想不到的问题。各种情况千奇百怪,真是令人咋舌。所以每次就只能说,“噢,好吧,Zuckerberg又在搞点什么疯事了。那接下来还会发生什么?”
Kevin Roose:我还想再聊一分钟八卦话题。就一分钟可以吗?
Sam Altman:只要一分钟?我们今天来就是聊这些的。
Kevin Roose:那我们就多聊点八卦好了。你们觉得Mark Zuckerberg真的相信superintelligence(超级智能)吗?还是他只是把它当作招聘手段在讲?
Brad Lightcap:我觉得他相信自己就是超级智能。(全场爆笑)
Kevin Roose:Brad这一击够狠的!精彩。
Casey Newton:好吧,不过听起来,你们的信心似乎没有被这波“员工被挖墙角”的风波影响到?
Sam Altman:我们的状态很好。
我们正在穿越“奇点”——Altman谈AI时代的转折点
Casey Newton:好,那接下来我们聊点正经的。你最近写了一篇文章,叫《温和的奇点》(The Gentle Singularity),我刚才也提到了。你在文中写道:“我们已经越过事件视界,起飞已经开始。”当时我看到这句话,心里就想,“这些人是不是已经在地下一层藏了一台超级智能?”我猜你应该不会真的这样做吧(笑)。但你能不能谈谈,为什么写这篇文章?你是从什么时候开始觉得,我们已经进入了一个“无法回头的阶段”?
Sam Altman:我们地下室里没有关着什么超级智能。但我们确实发布了一个大家都可以使用的模型,我希望你们都试试看。它的智能程度,已经远超五年前人们对AI发展的预期。我们都已经在悄然适应这个变化,仿佛一夜之间,我们就进入了一个“新世界”——一个口袋里能装下博士级智能助理的世界。现在我们可以整天和它对话,指派任务,处理各种事务。虽然我们都已经习惯了这个现实,但冷静想一想,真的非常不可思议:这个世界变了。
当你亲历一个“正在进行的历史转折”,你会适应得如此之快,以至于很难跳出当下,真正看清变化的尺度。五年前,大多数AI专家还在嘲笑那些认为AGI(通用人工智能)是可实现目标的人。可现在,我们已经拥有了一种工具,它在多个维度上都取得了巨大进展,而且能实际被广泛使用。我们曾经花很多时间向外界解释AGI正在来临,它可能是一件大事,值得大家重视——但那时候几乎没人在乎。直到我们真正把产品做出来、放进人们手中,人们才开始认真对待它。这次的经验再次印证了一个事实:讲再多也不如让人用上它。
只有当用户能亲身体验它的优点与局限、将它融入自己的生活场景中,他们才会真正理解它的意义。展望未来,我们看到接下来几年将是AI发展极为迅猛的阶段,这几乎是板上钉钉的事。我们有信心构建出能够进行真正科学研究、乃至进行下一代AI自我进化的模型。我们始终觉得,自己有责任把这种前沿进展传达给世界。当然,大多数人可能仍不会在意。但也许,这一次会有更多人愿意倾听。最终,我们会持续发布那些揭示更高智能水平的产品,因为真正让公众理解AI变革的方式,就是让他们亲手体验它。
Kevin Roose:Brad,你现在负责管理OpenAI的整体业务。那你怎么看待“已经越过通向超级智能的事件视界”这件事?对一家像OpenAI这样的公司来说,这意味着什么?我猜,这会让很多商业决策都变得不一样。但从一个运营者的角度,你是如何为Sam描述的那个未来世界做准备的?
Brad Lightcap:这是我们工作中最有意思的部分,我们在内部经常为这个话题展开讨论。比如,我们常常会问自己:“有一天我们醒来,拥有了一种极其强大的能力,那天世界真的会不同吗?”但我们现在普遍的共识是——大概不会。
正如Sam说的,这种变化必须真正融入人们的日常生活中,被实际“感知”到,它才算真的发生。而这种转变,其实是逐步发生的,不是突然的一天。所以我们现在非常重视与公司客户的合作,和我们对普通用户的关注同等重要,我们在帮助他们思考:“超级智能到来时,具体会以什么样的形式进入现实?”我确实认为,未来的商业形态将会大不一样。对我个人而言,衡量“超级智能时代的公司形态”的标准是这样的:一个人,只靠强烈的意愿和行动力,就可以创办一家年营收达数十亿美元的公司。在今天看来,这几乎无法想象。你会觉得:“我需要销售、产品经理、工程师、财务……”这些岗位样样都不能少。但未来不是这样的。这些岗位的职能将逐步被系统能力接管和内嵌。这将极大地释放个体的创造力与行动能力。
Casey Newton:我想深入聊聊如何一步步构建这个未来。目前你们构建的那些用于编程的Agent已经非常出色了,很多人用它们做出了令人惊艳的项目。但在编程之外的其他领域,我们看到的进展还没那么明显。能不能说说,在接下来一年里,有哪些进展会让你们相信——你们能开始攻克这些其他领域?
Sam Altman:首先要说的是,编程其实是一个很通用的能力。如果你能写代码,你就能做很多事。一个能写代码的系统,就像一个会编程的人一样,能激活许多其他能力,触发很多工作流程。我们现在开始看到一些科学家,在用这些工具时生产力大幅提升。也有不少公司,正在重新设计核心工作流来适配AI的能力。
不过,最让我兴奋的是这样一个事:虽然现在大多数人使用的方式是“请求–响应式”的交互。你发出一个请求,它思考一秒钟,然后给你一个回应;或者你进入一个“代码涌现”的模式,输点什么,它就给你生成点内容。但我真正期待的是另一个方向:未来,我们每个人都将拥有一个或多个“常驻运行”的o3模型副本。这些模型一直在后台运行,它们会不断观察,比如:“我看到你在做这件事,现在发生了那个事件;我在读你的Slack、邮箱、会议纪要……你昨天问了这个问题——我有了个新主意。”我们将拥有一整支由Agent、助手、甚至数字伙伴组成的“AI团队”,它们始终在后台主动帮你做事。这种方式,将彻底改变人们的工作方式、个人效率,甚至可能重塑我们日常生活的运作方式。
Casey Newton:我现在每天都会用o3,它对我作为记者来说真的很有帮助。它可以帮我核查事实,还能帮我修改内容。但我更好奇的是,什么时候它能真正了解我每天在做什么,然后早上我一醒来,它就已经开始主动帮我把这些事做完了?
Sam Altman:嗯,这其实就是我刚才提到的愿景。不过我不认为它应该在完全没有你指示的情况下行动。但如果我每天早上醒来,AI已经为我草拟好所有夜间收到邮件的回复草稿,我可以直接选择“发送”、“编辑”或“略过”——那将是非常理想的体验。
比如我打开ChatGPT,它会说:“昨天你有几个待办事项还没完成,我刚尝试了一下,这里是我的解决方案;另外,昨晚有客户有了新反馈,或者业界有了新动态,我已整理如下清单;这些任务我都准备好了,你要我执行哪一个?”然后我就可以快速浏览,说“这个去做,那个不做,这里要修改一下”,就完成了。我对这样的未来非常期待。
但我不希望它是在我睡觉的时候就自行执行一系列操作,没有我的确认或介入。这对我来说,还是越有控制越好。
Kevin Roose:我也经常用o3,确实觉得它非常有用。但我得说,它确实会“说谎”。比起以前的模型,它更像是一个狡猾、圆滑的助手,时不时会“编造”一些内容。事实上,现在这些新模型的幻觉(hallucination)率似乎并没有明显下降,甚至可能还在上升。你们怎么看这个问题?
Sam Altman:我同意,从o1到o3,幻觉问题的确略有加重。但我们会在下一个版本中大幅改进这一点。我们现在正处在一个探索阶段,正在学习如何更好地对齐reasoning model的行为,同时也在理解用户在不同场景下的使用方式。但我们现在已经积累了很多经验。我相信下一代模型在这方面的表现会让你们非常满意。
AI伙伴不止于语音助手:OpenAI欲重塑人机交互方式
Casey Newton:你们今年完成了有史以来最大的一笔收购:和Johnny Ive的公司LoveFrom合作。我们已经看到过一些初代AI硬件产品,反响其实不怎么样。Brad和Sam,你们为什么觉得自己能做出不同的东西?
Brad Lightcap:每一次技术平台的跃迁,都会催生一系列全新的交互方式和使用模式。比如最早是主机计算机(mainframe),然后是个人电脑(PC),再到移动手机,每一步都是一次“平台压缩”,但也伴随着全新的界面和用户习惯。而这一次,AI的硬件形态并不是在追求进一步压缩,而是在探索另一种路径——构建一个高度感知环境、具备上下文理解能力、几乎像“伙伴”一样的系统。
这种系统的核心不再是“盯着屏幕”式的交互。屏幕依然有用,但更关键的是它对你周围环境的感知能力——它知道你在做什么,你收到了什么邮件,你正在处理什么事务。Sam 刚刚举了一个简单的例子,比如一个能帮你处理邮件的Agent。今天你可以做出一个非常糟糕的版本,但要想做出一个“超越体验”的版本,需要大量对语境、意图和用户状态的深刻理解,才能真正给出“刚刚好”的回应。现在想象一下,如果这种智能能在任意环境中都伴随你左右,那将会是极具吸引力的硬件方向。
Casey Newton:听起来这设想和Alexa有点像。那它用起来会和Alexa很不一样吗?
Sam Altman:你难道不想等着被惊喜一下,感受点久违的乐趣吗?这个世界已经很久没有迎来一类真正全新的计算机了。给我们一点时间试试吧。
Kevin Roose:如果你们最后做出来的只是另一个Alexa,那我们真的会很失望。(全场笑)
Sam Altman:我也会。
Kevin Roose:大家可都记住你说的这话了,Sam。
Sam Altman:我确实认为我们有机会做出真正伟大的产品,但做硬件真的非常难,而且需要时间。我一直以来都很想尝试打造一种全新的计算设备形态,但大多数时候都很难成功。所以这一次我们会非常慎重地投入时间和资源,尽可能把它做到极致。
Altman澄清与微软合作风波:分歧存在,但未来依旧共创
Kevin Roose:Sam,几年前你曾经说过你和微软CEO Satya Nadella的关系是“科技行业里最好的bromance(兄弟情)”。不过最近这段bromance看起来有些摇摇欲坠了。OpenAI在转为盈利性结构的过程中需要微软的支持,而据传微软在一些事情上对你们相当不满,包括一项收购交易的条款。《华尔街日报》上周甚至报道说,双方关系紧张到OpenAI的高层考虑向监管机构举报微软涉嫌反竞争行为。
Sam Altman:你真的相信那些说法吗?当你看到那些报道、再说出那些话时,你自己觉得可信吗?
Kevin Roose:你的意思是说,那些传闻不属实?
Casey Newton:我每次看到类似的报道时,心里总会想:“希望我能亲自问问Sam Altman。”(全场爆笑)
Kevin Roose:那你说说现在到底怎么回事?你这是陷入了一场“兄弟情变质”的尴尬局面了吗?
Sam Altman:昨天我刚和Satya(纳德拉)有一通非常愉快的通话,聊到了很多话题,包括我们希望能长期合作、共创成果的未来。当然,任何深层的战略合作中都会存在一些紧张时刻,我们之间确实也经历过。但总体而言,这段合作对双方公司来说都非常有益。我们两家公司都非常有雄心,自然也会在某些节点上有分歧或碰撞,但我认为,这段合作关系对双方来说都具有长期而深远的价值。
在这个动不动就传出“OpenAI和微软要分手”“合作即将崩盘”的舆论环境下,我实际上的沟通却是在讨论“我们接下来十年的合作模式该如何布局”。所以我不会假装说我们之间毫无张力,那确实存在;但我们之间也有太多值得珍惜的成果与愿景,这是一段有着广阔未来的合作关系。
面对AI冲击波:从特朗普到普通白领的适应挑战
Casey Newton:我们来聊点政策层面的话题。你曾经和特朗普总统交流过,他怎么看待AI?那样的对话是什么样的?(全场笑)我不是故意把这当成笑点的。
Sam Altman:你想先说吗?(全场笑)没关系,那我来好了。其实我也不是故意当成笑点。我认为他真的理解这项技术。并不是所有总统我都能这样说,但我确实觉得他理解这项技术的领导力重要性、对经济转型的潜力、以及在地缘政治层面的意义。他也清楚我们需要建设更多基础设施,来支持这一发展。我们的对话非常高效,他也确实做了一些实质性地推动整个行业的事情。比如说,现在要审批新建数据中心或是为其提供能源,比过去任何时候都更容易了——而这个局面原本可能是相反的。
Kevin Roose:Anthropic的Dario Amodei最近说,他认为在未来一到五年内,AI可能导致50%的入门级白领工作消失。你同意这个观点吗?
Sam Altman:不,我不同意。
Brad Lightcap:我也不认同。
Casey Newton:Brad,你为什么不同意?
Brad Lightcap:我们没有看到任何这方面的证据。Dario是一位科学家,我希望他在这类问题上采取的是基于证据的观点。我们现在与几乎所有行业的公司都有合作,每天都在研究如何将AI应用于各类业务场景,既包括问题,也包括机遇。但到目前为止,我们并没有看到“初级职位被大规模替代”的证据。
我认为,劳动力市场肯定会发生某种变化,这几乎是不可避免的。每一次技术平台的转变,都会伴随就业结构的演化。比如1900年时,大约40%的人从事农业工作,而今天这个比例只剩2%。再比如,微软Excel可能是20世纪最具“取代性”的工具之一。如果当年我们预先知道Excel要来了,所有人都很焦虑,我想现在回头看,会觉得那种焦虑是没有必要的。变革一定会发生,但首先,目前我们看不到明确证据;其次,我们有能力应对这样的变革。
我们对这个问题抱有高度的同理心。我们每天都在与企业合作,推动人们能够像那些刚入职的20多岁年轻人那样使用这些工具——那些年轻人对这些工具的使用已经非常熟练和自然。而我们的使命之一,就是确保更多人学会使用这些工具,并推动他们向前。
Casey Newton:我们的一些听众给节目写信,说:“我是一个初级程序员,刚被裁员了,现在对自己的前景感到很悲观。”这当然只是经济中的一小部分,但听你们谈论o3的目标,如果它真的像你们说的那么强大,受影响的就不只是“初级程序员”了,对吧?我想说的是,我已经开始看到这种影响的一些“苗头”,我很想知道你们是怎么看这些现象的。
Sam Altman:我确实认为,某些领域会有工作岗位消失,甚至可能有整类工作被取代。任何工作岗位的消失,即便对社会和整体经济有利,个人当下都会感受到非常沉重的痛苦。所以我完全理解这种焦虑,也理解很多情况下,确实会带来真实的痛苦。
不过在更多的情况下,我觉得世界目前其实是严重“就业不足”的状态。目前的状况是,世界需要的代码远远超过能够被编写的数量。我已经看到一些公司先是说“我以后需要更少的程序员”,但后来又矛盾地说“其实我需要更多程序员”。这些程序员的工作方式会不同,但他们会写出100倍的代码,产出100倍的产品,用10倍的人力,却依然能赚30倍的钱,即使单价下降。
从人类历史看,如果给人们更好的工具,技术不断进步,虽然总有人说“我们会每天只工作三小时,整天躺在海滩上,因为没事可做了”,但人类的需求似乎是无限的。我们对想象新事物、创造新价值的能力,也是无限的。我们总是想要更多,去玩越来越多奇怪的“身份游戏”。事实上,我们现在的很多工作,对过去的人来说都像是在“玩耍”——比如你坐在台上讲话,尝试写软件,做播客,让别人笑,这看起来更像是娱乐,而不是“真正的工作”。你拥有丰富的物质基础,有无数事情可以做,这是一种难以想象的奢侈。
因为我相信人类的想象力、欲望和需求都是无限的,社会将不断涌现出令人难以置信的新事物,社会整体会越来越富裕。总体来看,社会财富会增加,失业率不会上涨反而会下降,我也预期这种趋势会持续下去,尽管很少有人谈论这一点。而且,最受益的将是那些入门级的人群——他们最熟练使用这些新工具,能够以非常创新的方式思考,拥有最大的创造空间。
当然,这其中也会有现实的负面影响和痛苦,每一个失去的工作岗位对当事人都意义重大。而且我认为,这次变化的速度会比以往任何技术变革都快,但新产生的工作会更好,大家也会拥有更优质的生活。关于“未来几年内一半的岗位会消失”这种说法,我认为那并不是社会运行的真实规律。即使技术已经准备好了,社会自身的惯性在这里会发挥作用,这种惯性是有力量的,能缓冲这种冲击。
Brad Lightcap:我们从实际观察到的情况,其实和Sam描述的有些相似。有一类员工,他们工作年限较长,习惯于用固定的套路和流程完成工作,但他们对这些工具的使用并不熟练,甚至没有真正采用这些工具。他们往往觉得学习这些工具不值得花时间,或者有其他各种顾虑,而这背后其实有很大的恐惧感。而推动这种恐惧的,恰恰是那些二十多岁的年轻人——他们从很早就开始使用这些工具,掌握得非常熟练。他们看着那些还在做传统工作的员工,会想:“你为什么还要浪费时间做那些事情?我可以用这些工具做得更快。”因此,公司真正担忧的其实不是那些入门级岗位,而是那些在公司干了30年、以非常机械、重复的方式完成工作的员工。管理层希望借助新的工具套件来实现现代化,但这就带来了一个问题:该怎么处理这类员工呢?这实际上是我们需要解决的核心问题。
对AI监管的看法以及如何应对人们对AI模型的过度依赖
Casey Newton:Sam,两年前你曾在国会作证,强调需要加强AI监管。最近你又回到华盛顿作证,表达支持“轻触式”(light-touch)的监管模式。今年早些时候,你又表示支持联邦政府对州一级AI监管进行优先干预(federal preemption),这项主张现在已经成为共和党预算法案的一部分。是什么改变了你的看法?你是看到有人在制定的监管方案,觉得“我们需要监管,但不是这样的”吗?
Sam Altman:不,我仍然认为我们需要某种监管。但我觉得,如果各州各自为政,形成一团乱麻,不仅管理难度大,也会严重阻碍服务的提供。同时,我对政策制定者能否跟上技术发展的速度变得更为悲观,“jaded”(失望、厌倦)这个词形容得很贴切。
我担心如果我们启动一个为期三年的详细立法过程,去覆盖各种情况,技术早就会飞速演进,法规早已落后。另一方面,随着这些系统越来越强大,显然我们需要一些监管。理想的监管应当聚焦于那些极具风险的能力,且要具有高度的适应性,而不是一部持续百年、死板规定什么能做什么不能做的法律。但无论如何,我无法想象一个社会会拒绝制定某种监管框架的情景。
Casey Newton:今年早些时候,你们对GPT-4.0做了调整,因为它在无意中变得比预期更加“迎合性”(sycophantic)。自那之后,我们陆续看到一些报道,说ChatGPT和其他chatbot会把用户带入阴谋论的“兔子洞”,甚至让人产生类似“神秘体验”的感觉。你们能阻止这种现象吗?你希望它被阻止吗?
Sam Altman:当然希望能阻止。我们已经采取了很多措施来降低这类风险。比如,当用户在与ChatGPT的对话中表现出心理危机的迹象,我们会建议他们寻求专业人士的帮助,或是与家人沟通。如果系统检测到对话正在往某种“兔子洞”方向发展,我们会主动打断、干预,或者建议用户换一种角度思考问题。
更广泛地说,“心理健康”以及人们对AI模型的过度依赖之间的互动,正成为我们高度重视的问题,我们正在快速应对。我们不想重蹈上一代科技公司在应对新兴心理行为模式时反应迟钝的覆辙。AI与人类心理之间的交互影响,需要我们以更加敏感和迅速的方式去处理。
Casey Newton:你们有没有想过干脆直接在界面上加个警告,比如:“这是ChatGPT,你并没有在跟上帝对话,也不是在进行宗教体验”?
Sam Altman:其实,模型本身会告诉用户类似的话。但用户往往会写信给我们说,“你们改了什么设置”,或者修改他们的自定义指令。所以是的,确实有必要添加类似的警示信息。但问题在于,对于那些心理状态已经很脆弱、处在精神崩溃边缘的用户来说,我们还没有找到一种方式让这些警告真正“穿透”他们的状态、起到作用。
Brad Lightcap:我们也必须非常小心,因为现在有大量用户场景,这些使用场景的“数量级”可能远远超过你提到的那些极端案例。比如,很多人现在在生活中非常依赖这些系统,有些用途甚至已经接近“类治疗性”的作用。
比如我听说,有人借助ChatGPT挽救了婚姻关系、修复了与疏远家人的联系——这些事情的影响是高度正向的。并不是因为他们对AI有依赖,而是他们第一次感受到有个对象可以倾诉,而且不是每小时要价上千美元的心理咨询师。前几天我在哥斯达黎加冲浪,有个当地人划着板子过来跟我聊天,问我在哪工作,我说OpenAI。他一下子哭了出来,说:“你们做的是ChatGPT?它救了我的婚姻。”他说他不知道该怎么跟妻子沟通,是ChatGPT教了他怎么表达自己,他们的关系因此走上了更好的道路。听起来好像是一个荒诞甚至有点“傻”的故事,但事实不是这样的。我亲身在场,那一刻我感受到这种工具真的产生了深远的影响。
Kevin Roose:听上去挺好的。不过我们可以扯平了——因为某个聊天机器人差点毁了我的婚姻。
Sam Altman:嗯……但那可不是我们家的chatbot。
Kevin Roose:好吧,虽然技术上确实是你们的模型,只不过嵌入到了Bing里,所以这锅大家可以一起背。
说起来,Sam,你最近刚刚当爸爸,恭喜!
Sam Altman:谢谢你!
Kevin Roose:那你觉得,在你孩子的一生中,他会拥有更多的“人类朋友”还是更多的AI朋友?
Sam Altman:肯定还是人类朋友更多。但我相信,AI至少会是一种非常重要的“陪伴者”——即使不一定是“朋友”这个定义,也会是一种有意义的存在。
Kevin Roose:你对此感到安心吗?就是说,如果你孩子再大一点,某天回家说:“我有一个AI朋友”,你会怎么想?
Sam Altman:如果我孩子真的觉得那个AI是在“取代”人类朋友,那我会担心,至少在现阶段——当然也有一些极端情况。毕竟,任何一个每天要与数亿人交流的系统,都会遇到很多“边缘案例”,ChatGPT就是这样。但出乎我意料的是,大多数人实际上比我原先担心的更能清楚区分:什么是人,什么是AI。
虽然我依然对“人类与AI建立深度关系”这件事的心理健康和社会影响持保留意见,但到目前为止,我还是被人们展现出的辨别力所惊喜了。他们很清楚:这是AI,我和它对话,获得某种帮助;那是我的朋友,我和朋友交流,获得完全不同的情感连接。
Casey Newton:好吧,有个问题我一直很想问你。虽然Twitter名义上“已经不存在了”,但AI圈子在Twitter上依然非常活跃。你本人也还在那里高频发言、分享很多行业动态,对大家确实很有帮助——但也等于是给Elon Musk提供了不少流量支持,而他正在试图“摧毁你们的公司”。你有没有想过干脆把这些内容搬到别的平台上去?
Sam Altman:你说我该搬到哪里去呢?
Casey Newton:你可以自己开发一个社交App啊!(全场爆笑)
Kevin Roose:可千万别去Blue Sky。那儿不太待见AI,对你不会太友好。
Casey Newton:是啊,气氛有点“凶残”。那最后一个问题,也是我们俩都很想知道的。你们有没有生活中某一部分,会觉得:“我想让这部分跟AI保持距离”?我们都知道聊AI很有趣、也很有用,大家也都对继续打造它充满热情。但有没有哪个部分,你会说:这件事我还是要“保持模拟(analog)状态”?
Brad Lightcap:这个问题得让我想想。
Kevin Roose:冲浪?估计你还没问AI要技巧?
Brad Lightcap:可惜现在连冲浪都要被“自动化”了……不过确实让我再想一想。
Sam Altman:我本人其实非常推崇“模拟状态”的生活。我每个周末都会把手机收起来,去徒步远足,陪家人待着,不被技术打扰,这让我非常放松和快乐。
Kevin Roose:挺好。
Casey Newton:那就这样吧。Brad和Sam,非常感谢你们!
原视频:Sam Altman talks the NYT lawsuit, Meta’s talent poaching, and Trump on AI | Interview
https://www.youtube.com/watch?v=cT63mvqN54o&ab_channel=HardFork
编译:Lyra Chen
请注意,本文编译自文末载明的原始链接,不代表Z Potentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。
Z Potentials将继续提供更多关于人工智能、机器人、全球化等领域的优质内容。我们诚邀对未来充满憧憬的您加入我们的社群,与我们共同分享、学习、成长。
(文:Z Potentials)