辛顿上海演讲全文


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
来源 | 深科技
编者按:
WAIC 首日,便以重磅嘉宾开场——诺贝尔奖得主,人工智能教父 Geoffrey Hinton,发表了开幕演讲。
图 | AI 安全国际对话上海共识签署现场,辛顿、姚期智等专家合影

Geoffrey Hinton:数字智能是否会取代生物智能

从大约 60 年前开始,AI 就发展出了两种不同的范式。一种是「符号主义」路径,强调逻辑推理的能力。我们通过规则操作符号来进行推理,这种方式可以帮助我们理解知识是如何被表达与处理的。这类 AI 模型的基础是对符号的处理,被认为更符合逻辑智能的本质。
另一种路径则以生物智能为基础,是图灵与冯·诺依曼更倾向相信的方式。他们认为智能的本质在于从神经连接中学习,在于速度、结构和连接模式的改变。这种「连接主义」强调的是学习与适应,而非显式的逻辑规则。
1985 年,我曾构建过一个非常小的模型,试图将这两种理论结合起来。我的想法是:每一个词都可以由多个特征(features)表示,而这些特征之间可以被用来预测下一个词。这个模型不存储完整的句子,而是通过生成语言来学习词汇之间的关系。
这种方式强调语言中的「语义特征」——也就是说,我们并不是仅仅靠规则,而是通过「理解」词汇的语义来进行预测。这为后来计算语言学界接受特征表示打下了基础。二十年后,这种思想得到了进一步发展,例如被用于构建更大规模的自然语言处理系统。
大模型与人类语言理解
Google 的 Transformer 架构,以及 OpenAI 研究者们所展示的大型语言模型(如 GPT),则把这种模型放大到了新的高度。这些模型的底层原理与我当年构建的小模型类似:将语言中的词汇视为具有多维特征的「构件」,然后在多层神经网络中进行组合、融合,从而实现语言生成与理解。
我喜欢用「乐高积木」作为比喻。每个词就像一个多维度的乐高积木,具有成千上万的特征维度。理解语言就像用这些积木建模,不同的词要以合适的方式「握手」,即匹配连接点,这种匹配方式反映了词与词之间的语义关系。如果词的形状改变了,它与其他词的「握手方式」也会变化,语言的意义也随之变化。
这种构造方式类似于蛋白质折叠:氨基酸在空间中的不同组合方式,最终决定了蛋白质的功能。人脑理解语言也是以此种方式构建语义结构的。
这与人类知识传播完全不同。我无法把我的神经元结构「拷贝」到你脑中,语言只能以极低的比特率(一秒大约 100 比特)来传递信息。而在数字系统中,一个神经网络模型可以复制成成千上万个版本,它们在不同设备上学习,并且可以快速共享权重,远远超越人类知识传播的速度与效率。

我的观点是,人类理解语言的方式和大语言模型的方式几乎是一致的。人类甚至可以被看作一种大语言模型。也正因如此,人类也和 AI 一样会产生「幻觉」,因为我们也会自己创造出一些不真实但合理的解释。

当然,也有本质上的不同。AI 在某些方面比人类更强。比如在计算机科学中有一个根本性的原则,那就是:软件可以被抽象、被复制,并在不同的硬件上运行。只要程序存在,它的知识就不会消失。你甚至可以毁掉所有的硬件,只要软件代码还存在,它就能被复活。

从这个角度看,程序中的知识是永恒的,不会死亡。这和人脑完全不同。人脑是模拟系统,每一次的神经元激发都是独一无二的,是不可完全复制的。你不可能把你脑中的神经结构复制到我脑中,因为我们每个人的大脑连接方式都不同。

这就导致一个关键问题:知识在大脑中是和硬件绑定的,而在数字系统中,知识可以和硬件分离。因此,AI 系统具有「永生性」。

这种特性带来了两个巨大的好处:第一,它只需要非常小的能耗。人脑的功率大约只有 30 瓦,却拥有上万亿个神经元连接,这和数字系统的能效比类似。第二,我们不需要花大价钱去一模一样地复制每一个神经网络。

当然,我们在知识传递方面仍面临一个难题。比如说,我没有办法直接把我脑中的知识「展示」给你,因为那是模拟性的东西。我只能用语言向你解释我学到的内容。

知识蒸馏与教师-学生模型
为了解决模型体积与计算资源问题,现在的研究越来越倾向于「蒸馏」技术:从大模型中提取知识,转移到一个小模型中。这个过程就像教师与学生之间的传授关系:教师通过语言、上下文连接等方式将知识传递出去,学生则尝试理解并复制这种能力。
不过这种过程在人类之间的效率是非常低的,毕竟语言的带宽有限。而在机器之间,这种知识的复制可以在极大规模下进行,实现指数级的知识转移。
AI 的能力正在快速增长,未来它们很可能变得比人类更智能。有人可能会认为,万一 AI 不听话,我们可以把它关掉,但这并不现实。如果 AI 足够聪明,它会通过操纵人类、获得控制权等方式来避免被关闭。
这个问题就像养一只小老虎当宠物——在它还小的时候你觉得可以控制它,但等它长大以后,就可能失控。AI 的能力可以带来巨大的好处,比如提高医疗、教育、应对气候变化和材料研发的效率。它不会消失,也不可能被单一国家所控制。
全球合作的希望
虽然不同国家的利益存在分歧,在如网络攻击、致命武器或舆论操控方面也难以形成有效合作,但就像冷战时期美苏合作避免核战争一样,各国在 AI 安全方面是有可能合作的。
我的建议是建立一个由多个国家参与的国际 AI 安全研究网络,专注于研究如何训练 AI 向善——这与训练 AI 变聪明是两件不同的事。每个国家可以在本国进行 AI 安全研究,但应共享成果,协助全人类开发出愿意协助、而不是统治我们的智能体。
从长远看,这可能是人类最重要的议题。而好消息是,这个问题是全人类可以团结起来共同面对的。



(文:机器学习算法与自然语言处理)

发表评论