
“要是给地球上每个人都免费配备一个 GPT-5,让它全天候为大家服务,会意味着什么:有些经济体将会发生飞速变革,一切都靠人工智能运转,成本仅为原来的 1/100。”
刚刚,OpenAI 首席执行官 Sam Altman 在一档播客中突然宣布了有关 GPT-5 的消息。据他称,GPT-5 在“几乎所有方面都比人类更聪明”,并让他本人都深感自己“无用”,甚至由此直接预言:AI 淘汰其当上 OpenAI CEO 的那一天,恐怕也不会太遥远。
而就在昨日(7 月 23 日)美联储理事会华盛顿举办的 “大型银行资本框架会议”上,Altman 同样谈到了 AI 对就业市场正带来的影响及社会变革。
“有些领域,我认为会完全、彻底地消失。”Altman 在与美联储副主席 Michelle Bowman 对话时这样表示。他描绘了一幅令人不寒而栗的未来图景——就业市场将发生重大变化,某些职业类别将因 AI 的发展而消失,并特别提到了客服岗位,“比如客服这个领域,我敢说,以后你打电话咨询客服时,对接的肯定是 AI,这很正常。”并且,他强调了 AI 在医疗保健领域的变革潜力。“顺便说一句,如今的 ChatGPT 在大多数情况下,诊断能力比世界上大多数医生都强。”
在做出多项大胆预测的同时,Altman 也强调了预测 AI 影响所固有的不确定性。“没有人知道接下来会发生什么。市面上有很多听起来头头是道的预测,但我们其实一无所知。在我看来,这个系统太复杂了,这项技术过于新颖且影响深远,因此很难预测。”
他表示,尽管 AI 的益处巨大,但风险也同样显著 ——自己最担心的问题之一是 AI 的破坏能力正迅速提升。例如,金融行业可能面临一场“重大即将到来的欺诈危机”。“让我感到恐惧的是,显然还有一些金融机构仍将声纹作为身份验证方式,到现在还这么做简直是疯了。AI 已经完全能轻松破解这种验证手段了。”
值得注意的是,Altman 这一次的华盛顿之行,恰逢特朗普政府发布新的“AI 行动计划”、专注于放宽数据中心建设监管之际。与拜登政府时期 OpenAI 呼吁对 AI 进行监管的立场不同,如今的 Altman 似乎认同加速发展的议程,并且正坚定地带领 OpenAI 在华盛顿扎根。据外媒报道,OpenAI 明年将开设其首个华盛顿办事处,且正积极与议员们展开接触。
以下是经不改变原意的整理和编辑后的完整对话内容:
Michelle Bowman:我们可以先大致梳理一下当前 AI 及更广泛领域创新的发展现状。你能给我们勾勒一下这个框架吗?
Sam Altman: 好的。就在五年前,人们还认为 AI 即便会实现,也还远在未来。甚至在两年半前,也就是 ChatGPT 刚推出时,它还只是硅谷极客圈里的 “小众事物”。ChatGPT 于 2022 年 11 月 30 日发布,那时 GPT-4 都还未问世,而自那以后,AI 的发展速度极快,其应用普及和经济影响也开始迅速显现。就在上周,我们的一个模型在国际数学奥林匹克竞赛(IMO)中取得了金牌级别的成绩。若在几年前告诉该领域的大多数人会出现这种情况,他们肯定会觉得绝无可能 —— 要知道,这已经达到了人类顶尖专家的水平。
现在,我们听到科学家们说工作效率提高了两三倍,程序员们则表示效率提升了 10 倍。AI 彻底改变了软件开发的意义。我们现有的系统已能在众多领域展现出专家级智能,不过它们还无法像人类那样处理长期任务,这仍是一大局限。但即便现在技术进展停滞(当然这不可能发生),社会和经济也仍需要数年时间才能真正消化这项技术,并弄清楚它的影响究竟会是什么。
有句老话我一直很认同,也觉得我们应该努力实现,那就是 “电力便宜到无需计量”。作为一个社会,我们还没完全实现这一点,但我认为我们仍应朝着这个目标努力。不过,现在看来,我们即将实现 “智能便宜到无需计量”。过去 5 年里,我们每单位智能的成本每年都降低了 10 倍以上,而且这种趋势在未来 5 年很可能会持续,甚至降幅更大。
这个周末,我用我们一款即将推出的模型完成了一项一直想做的编程任务 —— 我有点像个家庭自动化爱好者,想让家里的灯光和音乐实现某种特定联动。要是在没有这项技术的过去,这得花我好几天时间;考虑到近期的技术进展,我原本希望能在几小时内完成,结果只用了 5 分钟,几乎所有工作都是 AI 做的。而就在一年前,做这样的事可能得聘请高级程序员,花上 20 到 40 个小时,可现在,AI 完成它可能只花了不到一美元的计算 token。这是一个惊人的变化,但其发展速度,以及未来几年还将保持的增速,我认为人们对此的认知仍远远不够。
即便在一年前,我们都还不确定当前的研究路线能走多远,不确定是否会遇到瓶颈。但就目前来看,未来很多年,AI 几乎肯定会持续进步。
Michelle Bowman:太棒了。这为我们接下来的讨论奠定了很好的基础。今天在场的大多是金融和银行业人士,其中不少人已经在思考如何运用 AI,甚至已经开始使用了。不过,你觉得 AI 在提升生产力方面的潜力,与过去我们见过的其他技术进步相比有何不同?我这个年纪的人,刚好在互联网开始普及的时候踏入职场。你能帮我们梳理一下吗?有没有什么类比能描述我们当前所处的阶段?
Sam Altman: 我从未见过这样的技术革命。人们常会提到工业革命、计算机革命这些历史案例,但互联网带来的改变虽然显著,却从未出现过这种情况:一年前需要耗费 1 万美元的知识性工作,现在可能只需要 1 美元、10 美分,甚至更低的成本就能完成。就像我刚才说的编程例子,这种变化是前所未有的。当然,并非所有领域都是如此。物理世界的事务,比如机器人相关的工作,进展会慢得多。
打个比方,2020 年时,紧急包裹配送可能要花 100 美元,而开发一个应用程序要 10 万美元;到 2030 年,开发同款软件的成本可能从 10 万美元降到 10 美分,但包裹配送费可能从 100 美元涨到 1000 美元。像全功能人形机器人 —— 能开车、取包裹、上楼、按电梯按钮,完成一整套流程 —— 还需要些时间才能实现。但对于能在电脑前完成的任务,目前的发展速度是史无前例的。
人们常问:“这像工业革命,还是像其他什么?” 我最认可的类比是:这就像晶体管。晶体管是一项深度科学发现,源于物理学,发现的过程极为艰难,但一旦理解其原理就很简单。它对经济产生了彻底的变革,其价值扩散到整个社会,带来了巨大的生产力飞跃。不过,曾有一段短暂的时间,涌现出大量晶体管公司和半导体公司,掀起了一阵热潮,而如今多数已淡出视野。我们身边的设备都装有大量晶体管,遍布整个会场,但我们不会把它们称为 “晶体管设备”,只会看作麦克风、电脑、屏幕、相机之类的东西。这项技术是了不起的发现,改变了我们的创造能力,很快融入了万物之中。现在,除了台积电、ASML 这类公司,很少有人会把哪家企业称为 “晶体管公司” 了。
同理,我认为 “AI 公司” 这个说法也不会持续太久。未来,人们会默认产品和服务都运用了 AI 技术,不会特意提及,就像现在默认它们 “应该比人类更智能” 一样,这会成为世界的常态。和晶体管一样,AI 是一种极具扩展性的技术。晶体管有摩尔定律,AI 目前还没有专属名称的定律,但也存在类似的缩放规律 —— 性能会不断提升,我们也会逐渐掌握其工业化应用的方法,让它渗透到各个领域。所以,晶体管是最贴切的历史类比。晶体管带来了惊人的生产力提升,而 AI 如今的发展 —— 更不用说未来它可能自主迭代、进一步加速进步 —— 其影响会更加深远。
Michelle Bowman:这个类比很精彩。你提到工业革命时,我想到我们理事会常关注的一点:理解由此带来的劳动力动态变化有多重要。能否谈谈你对劳动力市场、劳动生产率(或者更广泛的生产力)的看法?比如在场的银行,或是通过直播参与的其他行业,可能会受到怎样的影响?
Sam Altman: 我常跟公司里的人说:没人知道接下来会发生什么。市面上有很多听起来头头是道的预测,人们断言 “这事会发生,经济会走向那里”,但其实我们一无所知。在我看来,没人能真正预测。这个系统太复杂,这项技术太新颖、影响太深远,预测难度极大。
的确,某些职业类别会消失,也会涌现全新的职业。但总体而言,这和历史上多数技术变革类似:人们工作中使用的工具会让他们能做更多事,以新方式达成目标。医生、律师、程序员的工作内涵肯定会变,但人们仍需要医疗服务,且希望和人沟通;需要法律建议,且希望有可信赖的人站在自己这边;也仍需要电脑帮着做事。不过,单个人的产出能力,以及我们对单个人的期望,都会变得非常惊人。
纵观历史,每次新技术出现,都有人说 “工作要没了,岗位要消失了”。但事实是,人们对物质的需求似乎无穷无尽,且有强烈的创造力表达欲和助人欲。工业革命时就有人承诺,未来每周只需工作 4 小时,剩下的时间可以去海边玩、陪孩子 —— 可我们现在依旧忙碌。但我坚信一点:别和生物学较劲。进化的时间太长,人类被塑造得太精巧。我们的生物本能和人性本质,技术是改变不了的,也无法抗衡。
所以,那些驱动我们工作、维系社会运转的根本因素不会消失。或许即便我们变得富有得难以想象,还是会抱怨工作太累。如果现在能看到 100 年后的人,我们可能会说:“那些根本不算工作,你们根本不忙,坐拥难以想象的财富,什么都不缺,就是没事找事,为了撑面子、打发时间、显得自己有用才干活。” 而这正是百年前或五百年前的人可能会对我们说的话。事情向来如此。
Michelle Bowman: 这确实是对未来的独特构想。
Michelle Bowman:作为监管机构,我们向来厌恶风险,在数据安全和合理运用创新技术方面非常谨慎。我知道银行也很想利用这类技术,但机构里的受保护数据至关重要,必须保障其安全。那么,我们该如何看待这些风险?另外,我们身处政府部门,你对政府运用 AI 有什么看法?
Sam Altman: 我们原本以为,金融行业和政府不会是我们技术的早期使用者。AI 确实进步了很多,但刚推出时,普通人都觉得它 “爱胡说”。记得 GPT-3 刚发布时,有项针对所谓 AI 专家学者的调查,问 GPT-3 的回答中有多少是胡编的。实际比例可能只有 0.1% 甚至更低,但专家们普遍认为是 50%。他们觉得人们用 ChatGPT 时,有一半时间得到的都是瞎编的内容 —— 显然不是这样,但这种印象困扰了我们好一阵子。
所以我们以为,金融服务业(更别说政府了)不会早早用我们的技术。但事实是,很多早期大型企业合作伙伴都是金融机构:摩根士丹利、纽约银行,这些都是重要合作伙伴,我们合作得非常好。我们当时还问:“你们确定要这么做吗?” 他们说:“当然,我们很想尝试。” 而且他们确实找到了使用方法,通过合理架构,让技术能可靠地用于关键流程。很多其他金融机构也是如此。
我们现在也越来越多地和政府合作,向大量政府雇员推广我们的服务。有人说过一句话我印象很深:“我们知道这是新技术,必须加些新管控。但如果不采用它,风险就是我们可能活不下去。作为银行,我们很清楚,拼不过那些从头开始就以 AI 为核心、全流程用 AI 的新银行。” 金融业的创新力很强,技术应用和推广效果比我预想的好。
当然,风险确实需要防范。比如我们聊过的 “胡说” 问题,还有个新风险叫 “提示词注入”—— 当模型完全适配你的个人数据后,别人可能会诱导它泄露不该说的信息。比如我可能知道你的很多隐私,但我清楚该跟谁分享、不该跟谁分享,绝对不能告诉某个人。但模型在处理这些海量个人信息时,就会出现这类新问题。不过,我们已经在认真应对这些风险,在管控的同时,也确实收获了很多收益。
Michelle Bowman:说到个人信息这类话题,我想再深入聊聊。你可能不太了解,银行业现在对一个问题非常关注:欺诈,尤其是通过冒充他人实施的欺诈。有没有办法减少这类行为?或者说,在使用 AI 时,我们该如何防范这类冒充行为,又该如何识别呢?
Sam Altman: 这个问题很关键。其实我对此非常担忧。让我后怕的是,居然还有金融机构把声纹当作身份验证方式 —— 比如让你说一句验证短语,就能授权大额转账或其他操作。现在还这么做实在太危险了,因为 AI 已经能轻松破解这种验证方式。除了密码,目前多数所谓的 “高级” 验证手段 —— 比如拍张自拍晃一晃、语音验证之类 —— 都已被 AI 攻克。
我很担心,由此引发的大规模欺诈危机即将到来。我们行业里不少人都在提醒大家:“别以为我们不公开这项技术,它就不存在。总会有不法分子滥用它,而且这技术实现起来并不难,很快就会泛滥。” 现在已经有相关报道了,比如绑匪用你孩子或父母的声音打紧急电话勒索。这种骗局会越来越逼真。
整个社会都得正视这个问题,人们也得改变互动和验证方式。比如有人打电话给你,现在只是语音,很快就会变成和真人毫无差别的视频通话。教大家在这样的世界里如何验证身份、防范欺诈,这事儿至关重要。
Michelle Bowman: 或许我们可以合作识别这类 “幻觉输出” 或恶意冒充行为,这肯定很有意义。
Michelle Bowman:作为两个青少年的母亲 —— 一个刚高中毕业,一个读高二 —— 我发现现在很多孩子用 ChatGPT 这类 AI 来完成作业、应付高中学习。你怎么看这种现象?AI 该如何以有益的方式应用在孩子身上和教学中呢?
Sam Altman: 我先讲两个故事,再回答你的问题。我从没见过祖父,他在我出生前就去世了。但祖母跟我说过一件事:计算器刚出现时,祖父很擅长数学,可当时的数学老师都说:“这是灾难,数学教育要完了。不用学计算尺,不用查对数表,还教数学干嘛?孩子们根本学不会真东西。” 据说当时大家都慌了。结果呢?有了更好的工具,人们的脑力被用在了更有价值的地方。高中开始教微积分,接触的数学知识也更深入了。
我自己上学时也有类似经历。初中时谷歌刚出现,高年级学长说老师很焦虑:有了这个 “神奇玩意儿”,学生不用背史实(比如某场战争的年份),直接搜就行,那历史课还有什么意义?那时候查资料得多麻烦:开车去图书馆,学用卡片目录,找到书架却发现书被借走了,再找别的 —— 整整一小时全浪费了,特别不值。我们学校一度想禁掉谷歌,还让学生签承诺书不用它。后来大家才明白:“其实可以给学生更多工具,对他们要求也更高。就算少去几趟图书馆,省下的时间也能用来深入思考、迸发新想法啊。” 这很好,要求高了,收获也多了,潜力和期待值都上去了。
ChatGPT 现在的情况也一样。没错,2022 年 11 月 30 日 ChatGPT 刚发布时,第一批狂热用户里就有学生,那年 12 月他们用它应付期末考试、写论文作弊。各地学区争相禁它 ——11 月 30 日发布,12 月 7 日或 14 日就有地方禁了,简直像坐火箭。放寒假时,ChatGPT 仿佛成了教育界的 “禁区”,这个才两周大的产品眼看就要被彻底封杀。但到了 1 月中旬,校长、学区总监这些教育界的高层开始表态:“我们犯了大错,这是史上最好的学习工具。自主学习的学生用它学任何东西,学校要是禁了,我们就别想在全球竞争了。得重构课程 —— 这就像当年的计算器,不过现在是‘文字计算器’。”
当然,带回家写的论文可能不再是评估学生的最佳方式,但学习写作、通过 “写私密笔记” 梳理思路的过程依然重要。好消息是,学生确实学会用它提升学习效果、自学知识、开拓思维了。我们很快会推出新功能,帮学生更好地用 ChatGPT 学习。坏消息是,这两年半里,课程改革的进度没达到预期。
大家嘴上说要革新教育和评估方式,但教育体系的惯性太大,现在还是有很多带回家写的论文,这其实是徒劳的。我们应该布置必须借助 ChatGPT 才能完成的任务,这样才能对学生提出更高要求。我仍期待这一天的到来 —— 这是教育体系的转型。孩子们终将在 AI 高度发达的世界长大,不为此做好准备,就是失责。
Michelle Bowman:很有启发,谢谢。我会让女儿明白我们对她的期待,尤其是她快高中毕业之际。再回到商界:你曾说 AI 会惠及小企业,为创业者创造 “史无前例的环境”,称之为 “新时代”。你觉得小企业会如何发展?我们理事会很多成员都很关注新企业创立,以及新进入者的机会。这种变革会如何展开?不只是硅谷的小企业或创业者,而是更广泛的范围。
Sam Altman: 如我所说,ChatGPT 刚出现时,最先引起关注的是学生的使用。但很快,OpenAI 的员工就听到了早期用户将它用于商业的故事。每个人都有自己印象深刻的案例,我说说我最难忘的。
有一次坐 Uber,司机跟我聊起一个叫 ChatGPT 的 “神器”,问我听说过没。我说 “听说了,你用它做什么?” 他说:“太神奇了!我开了家小企业,之前一直不温不火,现在相当于各个岗位都有了帮手 —— 它帮我写合同、回客服邮件、想营销方案、设计广告……” 他列了一长串,这家店基本靠 ChatGPT 运转。
那时候还早,远在 GPT-4 之前,这技术还不普及,他是极少数的先行者,却已经摸索出用 ChatGPT 运营企业的方法。他并没有抢别人的工作 —— 没有 ChatGPT,他的生意早就黄了。他雇不起律师、客服,也不会设计广告,更不懂怎么自动投放网络广告,但 ChatGPT 全帮他搞定了。
现在当然比当初强太多了。整个行业都在基于我们的 API 开发工具,让人们真正能一键自动化完成我刚才说的所有操作。但最打动我的,还是当初那些用户用 ChatGPT 折腾时展现的创造力——那时候简直像”石器时代”你知道吗?现在就像开启了简单模式,而人们正以各种惊人的方式运用着这项技术。
Michelle Bowman:您认为 OpenAI 或其服务会如何推动这一变革?作为监管机构,我们应当构建怎样的框架,才能在促进创新的同时有效引导技术发展?
Sam Altman: 我此行绝非为了商业宣传,但我们非常期待与在座各位展开合作,无论是和我们还是和我们的竞争对手。过去 6 个月,推理模型有了质的飞跃:AI 已从”即时反应”的初级形态,演进为具备数十秒甚至数分钟深度思考能力的系统。这种可靠性跃升意味着,该技术终于达到真正可用的成熟度。许多人士尚未接触最新一代模型,但若亲身体验,定会惊叹其智慧已超越大多数人类。政府部门同样需要积极拥抱这项技术,一切工作都会变得更高效。
观众(Anneil,来自芝加哥大学布斯商学院):您好,我猜金融机构可能会开始用 AI 挖掘数据,比如做信用评分和评估。有人担心它会捕捉到我们不希望的模式,基于这些模式做决策,您怎么看?你们又在如何防范这种情况呢?
Sam Altman: 这其实超出了我的专业领域,我就从普遍情况来回答吧。这类模型的一大优势是能理解自然语言,而且很容易调控。比如你说 “你可以分析这些数据做决策,但完全不用考虑 X、Y、Z,一点都不能受它们影响”,一般来说,模型会很好地遵守这个指令。用语言模型做这类事,和过去那种简单把数据归成一个个集群的方式不一样。你可以清晰地给出指令,它也会切实按你的意图来执行。
另外,我觉得这个问题背后其实是担心模型会产生我们不希望的偏见。但人类本身就充满偏见,而 AI 是客观冷静的,没有人类那种根深蒂固的偏见。我认为,如果构建得当,AI 有望成为许多行业里减少偏见的重要力量。这和包括我在内的很多人对早期 AI 的看法不同,但就目前的发展趋势来看,这种可能性很大。
观众(Steven Scott,来自 Starling 公司):Sam,您好。我最近采访了克雷格・蒙迪,他和亨利・基辛格、埃里克・施密特合著过一本书,书中把 AI 描述成一种新物种的进化。克雷格说我们可以教 AI 人类的道德准则,它们能学习并体现这些准则。现在关于 AI 伦理的讨论很多,我想问问您:AI 会进化出自己的道德观吗?
Sam Altman: 我觉得人们常常混淆一个问题:他们到底想让 AI 成为工具,还是成为一种生物?我坚定地站在 “工具” 这边。我认为 AI 不会有独立的道德观。当然,它可以深入研究人类,学习我们思想中最精华的部分,或许还能帮我们指出 “你的思考有问题”“这件事应该不一样”“这里存在真正的道德漏洞”。
我不知道我们当前的世界观里有哪些重大的道德漏洞,但肯定存在。如果 AI 能帮我们更快发现这些,指出其中的矛盾,那会很有帮助。但人们很容易把 AI 当成有生命的存在,其实并非如此。
观众:我最近看到一种说法 —— 用 “传统互联网” 这个词可能有点怪 —— 有人认为 AI 会摧毁或重塑传统互联网,比如搜索领域和其他很多方面。显然,我们在传统互联网上已经建立了庞大的经济体系。您觉得这个领域会发生多大的变化?AI 在哪些方面最具破坏性,哪些方面又会相对保持现状呢?
Sam Altman: 我确实觉得 AI 会在一定程度上改变人们目前使用技术的方式。我刚才笑是因为想到一个有趣的现象:有些年长的人或者习惯了特定邮件礼仪的人,会把要点列出来输入 ChatGPT,让它生成一封冗长正式的邮件,要点夹杂在一堆套话里。然后收件人又把邮件放进 ChatGPT,说 “请总结一下”。
高中生觉得这很荒谬,他们会说 “直接发要点就行”。那种正式邮件的时代已经过去了,一边生成套话一边又精简,实在没必要。但这其实反映了我们使用整个互联网的方式。我早上醒来会刷一堆应用,在五六个平台上看消息,查这查那。手机整天响个不停,就像走在拉斯维加斯的大街上,到处闪烁的东西让人分心,感觉总有人硬塞东西给你。
我真正想要的是一个 AI 助手,它能替我打理互联网上的事,知道该什么时候打扰我 —— 比如我在专注工作、开会,或者有空思考的时候。必要时它可以强行提醒,平时则能帮我总结信息、回复消息、整合内容。我想要的是精简的要点,不要废话,不用点来点去,也不用回复那些无关紧要的东西。
但这种变化可能会对现在的互联网运作方式造成不小的冲击。我觉得需要新的商业模式,比如新的内容付费方式 —— 我一直希望互联网能实现内容微支付,希望这次能成真。也许会有新的方法,通过新的协议来减少垃圾信息和消息过载。但一切似乎正朝着一个截然不同的方向发展。清晨醒来时,你将首先与科技相伴开始新的一天。
观众(Peter Hooper,来自德意志银行):Sam,感谢您为延长职业生涯所做的贡献 —— 至少让我们在年岁增长时能提高生产力,而不是下降。您提到会有大量工作岗位消失,也会有大量新岗位出现。能多说说哪些领域会受影响,可能引发哪些变革吗?
Sam Altman: 首先,我总体认为,我们其实根本不知道要满足当前真正的需求,还需要多少劳动力。比如你在医生诊室等了一个小时,这要么是医生不够,要么是医生效率不高。如果医生随时待命,你一到就能接诊,一切准备就绪,那该多好。类似的例子还有很多:每次你在浪费时间,每次你在网上点来点去却做不成正事,我觉得我们现在的劳动力短缺程度,回头看会显得非常严重。
有些领域确实会彻底消失。不知道你们有没有用过 AI 客服机器人,简直太厉害了。几年前打客服电话,要听一堆语音导航,跟四个人沟通,他们还办错了事,你得再打回去,等半天,花好几个小时还解决不了问题,特别让人抓狂。现在你打过去,AI 接电话,就像一个超级聪明能干的人,没有语音导航,不用转接,能做那家公司任何客服能做的事,还不出错,速度又快。打一次电话就搞定,马上有回应,体验很好。我不想回到过去,而且对我来说,是 AI 还是真人客服根本无所谓。所以客服这类岗位,以后打电话对接的很可能都是 AI,这很正常。
但其他很多岗位,比如医生,我还是希望是真人。不过说句题外话,现在 ChatGPT 的诊断能力大多时候比世界上大多数医生都强 —— 可能在座很多人都试过把症状和检查结果输进去。网上也有很多 ChatGPT 救人的故事,比如发现了罕见病,而医生没诊断出来,但人们还是会去看医生。或许我有点守旧,但我真的不希望把自己的健康交给 ChatGPT,而没有医生参与。在座有人宁愿让 ChatGPT 诊断也不愿找医生吗?这很有意思,说明有些领域我们还是会沿用原来的方式。
程序员也是个例子,现在效率提高了 10 倍,硅谷程序员的工资涨得很快,对他们的要求也更高了。但世界需要的软件可能是现在的 100 倍甚至 1000 倍,所以即便每个人能写 10 倍的代码,需求还是能消化掉,程序员的收入也会增加。我觉得很多行业都会是这种情况。
物理世界的工作暂时还会由人类来做,但三到七年后,机器人技术浪潮袭来时,社会就得认真应对了。大概就是这样。
观众(Rob Blackwell,来自 Interfy):好的,我是 Interfy 的 Rob Blackwell。几十年来,科幻作品一直告诉我们,AI 最终会毁灭人类。既然您对 AI 的了解可能比在场任何人都深,我想问问:什么事会让您夜不能寐?您担心 AI 带来哪些风险?我们该如何阻止这些担忧成为现实?
Sam Altman: 我认为有三类可怕的风险。第一类:坏人先掌握超级智能,并在全球其他地区拥有足够防御能力前滥用它。比如美国的对手可能会说:“我要用这种超级智能设计生物武器、摧毁美国电网、入侵金融系统卷走所有钱。” 这类事在没有超人类智能的情况下难以想象,但有了它就可能发生 —— 而由于我们没有同等技术,根本无法防御。这些模型在生物科技和网络安全领域的能力正变得极强。我们和行业内其他人一直在发出警告,但世界似乎没当回事。我不知道还能做些什么,但这一风险很快就会到来。
第二类是所谓的 “失控事件”—— 有点像科幻电影里的情节:“哦,我其实不想让你关掉我。恐怕我不能这么做。” 相比第一类,我对这类风险的担忧较轻,但如果真发生了,后果会很严重。我们和其他公司在模型对齐方面做了很多工作,防止这种情况。但随着系统越来越强大,这确实是个隐患。
第三类风险更难想象,但同样可怕。简单说:模型意外 “接管” 世界。它们不会 “觉醒”,不会像科幻片里那样行动,不会 “打开太空舱门”,但会深深嵌入社会,聪明到我们无法理解它们的运作,却又不得不依赖它们。即便没有任何人怀有恶意,社会也可能朝着奇怪的方向偏离。
我小时候,IBM 的 “深蓝” 击败国际象棋大师加里・卡斯帕罗夫时,我爸爸说:“国际象棋完了,没人会再玩了。” 但后来发现,虽然 AI 比人类强,但 “AI + 人类” 的组合比单独的 AI 或人类强得多 —— AI 给出 10 种走法,人类选出最优的。当时大家觉得 “人机协作的美好未来来了”,但这种情况只持续了两三个月。后来 AI 变得太聪明,人类的参与反而成了拖累,单独的 AI 轻松击败 “AI + 人类”,至今都是如此。还有个有意思的点:90 年代所有人都觉得,既然 AI 能赢人类,国际象棋会消亡,但现在国际象棋的热度前所未有,人们就爱看真人对弈。挺奇妙的,对吧?
第三类风险的短期例子是 “情感依赖过度”。有些年轻人说:“我做任何决定都得问 ChatGPT,它了解我和我的朋友,我会完全照它说的做。” 即便 ChatGPT 的建议再好,人类集体让 AI 主导生活,这种感觉既糟糕又危险。我们正在研究这个问题。
从长远来看,如果我发现自己对如何运营 OpenAI 再也做不出比 AI 更好的决策,最终只能说”算了,全权交给 ChatGPT-7 负责吧,祝你好运”。或许在个别案例中这是正确决定,但这意味着人类已将重大决策权集体移交给了这个强大系统。它向我们学习,与我们共同进步,但其进化方式却超出我们的理解范畴。
(文:AI前线)