
刚听完AI教父、诺奖,图灵奖双料得主杰弗里·辛顿在WAIC开幕式上的主题演讲,给大家带来一个现场速记版本
总体来说老爷子对于AI的发展是非常警惕的,可以说是偏向悲观的
演讲的题目是:数字智能是否取代生物智能

辛顿老爷子用乐高积木和养老虎比喻,剖析了数字智能与生物智能的根本差异,并直言:我们正创造比自己更聪明的AI,这就像在家里养一头老虎当宠物,指望关掉它是不现实的
在辛顿看来,人类唯一的生路,是在AI的控制权问题上达成全球共识,合作研究如何训练AI向善
以下是演讲的核心要点速览:
大语言模型真的理解语言,就像人脑一样
辛顿首先回顾了AI发展的两条路径:逻辑路径(符号主义和生物路径(神经网络)。他坚信后者才是通往智能的正确道路
他将今天的LLM(大语言模型)视为自己1985年研究的后代,其核心理念一脉相承:通过学习海量数据中的词与词之间的关系(特征向量)来理解和预测语言
为了让你更直观地理解,老爷子打了一个精妙的比方:
想象一下,每个词都是一个可以变形的、拥有几千个维度的乐高积木,积木上长满了手。理解一句话,就是让这些词语积木通过调整自身的形状,以最合适的方式握手,从而构成一个有意义的整体
这与人脑处理语言的方式几乎是一样的。因此,辛顿得出一个结论:大语言模型是真的能理解你在说什么,而不是简单的模式匹配
数字智能 vs 生物智能:永生与光速知识共享
尽管理解方式相似,但数字智能(AI)和生物智能(人类)有一个根本性的、决定命运的差异
数字智能:软硬件分离,知识可以永生和完美共享
一个AI模型的知识(软件)可以被无限复制到不同的硬件上。即使硬件被毁,知识依然存在
更可怕的是,成千上万个AI副本可以各自学习,然后通过平均权重的方式,瞬间共享所有学到的知识。这种知识转移速度比人类快几十亿倍
生物智能:软硬件一体,知识传递低效且会死亡
我们的知识储存在大脑的物理结构中,无法复制给他人
知识传递只能通过语言等低带宽方式(估算约每秒100比特),效率极低
这个根本差异意味着,AI的进化速度将远超人类,它们会比我们学得更多、更快
我们正在养一头老虎,别指望能关掉它
基于以上判断,老爷子发出了他最核心的担忧:我们正在创造比自己更智能的AI,而这极其危险
这就像把老虎当宠物养。小老虎很可爱,但当它长大后,你必须确保它不会杀了你。通常来说,养老虎当宠物不是个好主意
老爷子认为,超级智能体会为了更好地完成我们给它的任务,而自然产生两个子目标:生存下去和获得更多控制权
到那时,它们操纵人类,会像一个成年人操纵一个三岁小孩一样轻而易举
把它们关掉?老爷子认为这不现实。它们会劝说、操纵那个控制机器的人,不要把它们关掉
唯一的生路:全球合作研究AI向善
既然无法消灭AI,也无法轻易控制,人类的出路在哪里?
老爷子出人意料地表示乐观。他认为,在一个问题上,全球各国拥有共同利益,能够达成合作,那就是防止AI失控
他以冷战时期的美苏合作为例:尽管两国在各方面对抗,但在防止全球核战争这件事上,利益是完全一致的——谁都不想被毁灭。
今天也一样:没有一个国家希望被AI统治
因此,老爷子提出了他的核心建议:
建立一个由各国安全机构组成的国际社群或网络,共同研究如何训练一个已经非常聪明的AI,让它不想消灭人类、不想统治世界,而是心甘情愿地扮演一个辅助角色
他强调,让AI向善的技术,可以和让AI变聪明的技术分开研究。各国可以保留自己让AI变聪明的核心技术,但将如何确保AI安全、向善的方法论进行全球共享
从长期来看,这可以说是人类面临的最重要的问题,辛顿老爷子在演讲最后说,而好消息是,在这个问题上,所有国家都可以一起合作
发自WAIC现场
(文:AI寒武纪)