Datawhale分享
最新演讲:辛顿,编译:数字开物
7月23日,英国皇家学会发布了“人工智能教父”、2024年诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)教授5月30日在英国皇家学会的演讲,这场演讲不仅系统性地回顾了从基于逻辑的传统AI到受生物学启发的神经网络的演进历程,更深入剖析了大型语言模型的学习机制、知识表征,以及它们与人类大脑在本质上的异同。
01
智能的本质,在于脑细胞网络的学习
很久以前,智能领域存在两种截然不同的范式。第一种是受逻辑启发的方法,也就是我们所说的传统人工智能。当时人们坚信,人类智能的本质在于推理。要想理解智能,必先攻克推理。而所谓推理,无非是建立一套符号表达式,再通过符号规则去操纵它们。至于学习,他们觉得可以先放一放。当务之急,是搞清楚知识如何用这些符号来表征。直到不久前,这几乎是人工智能历史的全部。
另一条路,则是受生物学启发的。这条路认为,智能的本质,在于脑细胞网络的学习——对我们人类而言,是真实的脑细胞;对计算机而言,则是模拟的。至于推理,同样可以先放一放。我们必须首先理解学习的机制。这条路的早期先驱中,不乏 Turing 和 von Neumann 这样的人物,你总不能指责他们不懂逻辑吧。
所以,我今天的分享会相当基础。在第一部分,我会介绍一个我四十年前开发的模型,我把它看作是当今所有大语言模型的共同祖先。我们将用人工神经元来构建神经网络。一个人工神经元,会有一些输入线,通常连接着其他神经元。这些输入线上都带有权重。它会用输入信号乘以权重,将结果汇总,然后产生一个输出,正如那张图表所示。一旦输入总和超过某个阈值,它的输出就会随着输入的增加而线性增长。而它学习的方式,就是简单地调整这些连接上的权重。所以,要让 人工神经网络运转起来,我们唯一需要解决的问题,就是如何调整权重。
我们将神经元连接成网络,一个典型的前馈网络就诞生了。在网络底层,可能是一些感知神经元,负责记录光照强度之类的信息。信息逐层向上传递,会经过许多层的特征检测器。在这一过程中,神经元演变成了能识别图像特定特征的单元。到了输出层,就是代表特定事物类别的神经元了。
现在,假设你想让这样一个网络学会做某件事,比如,你给它一张图,让它判断是猫还是狗。任何了解进化论和基因突变的人,都能想到一个显而易见的训练方法。你可以这样做:随机选一个权重,看看网络在海量样本上的整体表现。然后,微调这个权重,再用同样多的样本测试一遍。如果表现变好了,就保留这次改动。然后周而复始。问题是,你可能需要反复调整每一个权重,而现代神经网络中的权重数量,大约有一万亿之巨。这会是一个极其漫长的过程。因为每一次这样的“突变”后,你都必须用海量样本去验证,才能确定它是一个普适的改进,还是仅仅在少数样本上碰巧有效,却损害了大部分情况下的性能。
其实,有更好的办法。我们真正想要的,是直接找到能提升性能的权重调整方向。具体做法是:首先进行一次前向传播,将数据从底层输入,贯穿整个网络,然后将网络的输出——比如,模型判断图片是猫和狗的相对概率——与正确答案进行比较。当然,前提是你必须事先知道正确答案。接着,你向网络中反向传回一个信号。这个信号运用了微积分的原理,它能让网络瞬间计算出,对所有连接而言,微调其权重究竟是利是弊。然后,你根据这种利弊的程度,按比例、并行地对所有连接权重进行一次微小的集体调整。如此一来,网络在你用来训练的样本上就会表现得越来越好。事实上,这个方法的效果出奇地好。人们花了很长一段时间才意识到这个看似简单的算法有多么强大。这个算法曾被多次独立地发现,它的名字叫反向传播。
02
当“AI”不再是符号逻辑的代名词
2012年,我的两位学生,Alex Krizhevsky 和 Ilya Sutskever——后者现在因为开除了 Sam Altman 而声名大噪,开发了一个名为 AlexNet 的网络。在图像物体识别任务上,AlexNet 的表现远超当时所有的计算机视觉系统。这一成果,仿佛打开了新世界的大门。在此之前,神经网络虽在语音识别等多个领域表现不俗,但始终未能占据主导。从那一刻起,它们真正开始全面接管。以至于现在当人们谈论“AI”时,他们所指的,就是神经网络,而不再是符号逻辑。
那么语言呢?有一个专门研究语言的学术圈子,人们称之为语言学家。对于如何研究语言,他们有着一套非常固执的见解,尤其是以 Chomsky 为代表的学派。他们对神经网络处理语言的能力,抱持着极度的怀疑。他们坚信,语言的本质完全在于符号表达式。他们根本没能领会到,语言的真正功能,是为我们提供词语——这些词语如同砖块,让我们能用其构建心智模型。语言,本质上是一种建模的媒介。他们一味地专注于句法,但句法并非核心。核心在于,语言是一种构建特定复杂模型的绝佳工具,这一点我们稍后会看到。他们还认为,我们对语言的知识,包括句法知识,都是与生俱来的——这简直愚蠢至极。一个学派的标志,往往就是要求其信徒必须相信某些显而易见的蠢话,比如“语言不是后天习得的”。
03
一个微型模型如何揭示语言的奥秘
好了,关于词的意义,这里有两种截然不同的理论。一种是符号主义AI的理论,其思想可以追溯到很久以前。该理论认为,一个词的意义取决于它和其他词语之间的关系。你无法孤立地定义一个词。因此,要捕捉词义,我们需要像关系图这样的结构。但另一边,有一些心理学家,我记得大概是1930年代,他们认为一个词的意义是一大组特征的集合。比如,“星期二”拥有一大组被激活的特征,而“星期三”也拥有一大组几乎完全相同的激活特征。因此,“词义是一组激活特征”的观点,在判断词语意义的相似性上非常有效。表面上看,这是两种截然不同的意义理论。
现在,我要向各位证明,这两种理论可以被统一。它们并非相互独立的理论,而是同一个理论的一体两面。所以,接下来我会花相当长的时间,来讲述一个非常小的模型,一个微型神经网络。它只有几千个连接和几十个神经元。这是我在1985年开发的,初衷是为了理解人类是如何学习词语意义的。当时我为它能将这两种意义理论统一起来而兴奋不已,尽管旁人对此不以为然。
好的,我们在这个小模型里要做的事情,是学习如何利用一个词的特征,来预测一个小句子中下一个词的特征。一旦我们知道了下一个词的特征,我们就能预测出这个词本身。而且,请注意,我们不存储任何句子。很多人以为,大型聊天机器人不过是在复述它们看过的语料。但实际上,大型聊天机器人根本不存储任何语言文字。它们不存储词语的字符串。它们存储的,只是将词语转化为特征的方法,以及这些特征该如何相互作用,从而预测下一个词的特征。这便是这些聊天机器人肚子里的全部。没有现成的词句。当它们需要生成一个句子时,必须逐字逐句地即时创造。它们也常常分不清自己生成的内容,究竟是源于真实信息,还是纯属虚构。
所以,在这个小模型里,当它需要生成一个新句子时,它必须一个词一个词地即时构建。所有的关系型知识,都蕴含在如何将一个词转化为特征以及这些特征如何互动之中。
04
AI如何通过预测,自主学会了“理解”
为此,我选择的例子是两个家谱:一个英国家谱和一个意大利家谱。它们在结构上是同构的,这对模型的学习很有帮助。我希望这个小小的神经网络能够学习到这两个家谱中所包含的知识。那是在遥远的1986年,当时的计算机比我们今天用来训练模型的大型并行计算机要慢上数十亿倍。这些家谱中的知识可以表示为一系列的命题,这恰好是符号学派最喜欢的方式。比如这些:我们可以使用像儿子、女儿、侄子、外甥女等关系。我们可以将这些知识定义并表示为词语的字符串。所以,知识就包含在这些句子里。例如:“Colin 的父亲是 James,Colin 的母亲是 Victoria”。如果你了解规则,就能从中推断出“James 的妻子是 Victoria”。这是一个典型的1950年代美国家庭,他们从没听说过离婚或收养。而且,不言而喻,他们都是白人。
好的,所以你可以将知识表示为一串串的词语。现在,你可以把一个关系学习任务想象成这样:我给你一串词的开头,你告诉我最后一个词是什么。如果你用符号主义AI来解决这个问题,你会建立这样的规则:“如果X的母亲是Y,并且Y的丈夫是Z,那么X的父亲就是Z。” 这就是符号主义的做法。但我想要另辟蹊径。我想通过学习词语的特征,并让这些特征之间产生互动来完成任务。这意味着,我们要在一个巨大的、连续的连接权重空间中进行搜索,而不是在一个由离散规则构成的小型、离散空间中搜索。
这就是我当年使用的网络。输入是一组神经元。你激活其中一个神经元,用它的符号来代表“第一个人”,这里有24个备选。然后,你再激活另一个神经元,用它的符号代表“关系”,这里有12种备选。接着,这些被单独激活的神经元会被扩展成一个特征向量。例如,你为“第一个人”激活的那个神经元,会被扩展成一个包含六个特征的小型特征向量,这些特征可以有不同的激活水平——开、关、半开等等。因此,这个神经网络必须学会如何将一个代表“人”和“关系”的词符号,分别转换成一个小型特征向量。然后,它必须学会处理这两个特征向量,让它们的特征相互作用。为此,我用了一个隐藏层,一个提供特征互动场所的额外层次——从而预测出输出人物的特征。一旦你知道了输出人物的特征,你就能很好地猜测出最终输出的是谁,并给出结果。这个输出会以不同激活水平的形式,赋予所有24个可能的输出人物。而你所期望的,是网络能给正确答案一个高激活值,给错误答案一个低激活值。
结果如何呢?那六个作为“人”的特征扩展的神经元——也就是从24个人中,将那个被激活的神经元扩展成的包含六个激活特征的向量——它们自主地学会了成为有意义的语义特征。它们学会了去表征诸如输入人物的“辈分”这样的信息。而代表“关系”的六个特征也学会了成为有意义的特征,比如,这个关系是否要求输出人物比输入人物“高一辈”?像“父亲”这种关系就是如此,而“兄弟”则不是。
然后,这些特征之间的相互作用学会了处理这样的逻辑:如果输入人物是第三代,而关系要求输出人物要“高一辈”,那么输出人物就是第二代。于是,对于代表输出人物的那个小特征向量,它就会激活代表“第二代”的那个特征。它就这样学会了一大堆类似的小规则,而这些规则确实捕捉到了这个领域的内在结构。这些规则,就像是符号主义者可能会手动写下的那种规则,但模型是完全自己学会的。它通过不断尝试预测正确的词,然后进行反向传播,将误差信息传回网络,微调所有的连接权重,以便下一次能给正确答案更高的概率,给错误答案更低的概率。
所以,它实际上学会了预测下一个词,而且你完全可以理解它的工作原理。因为它是一个很小的网络,你可以深入洞察其内部运作,看到它使用了哪些特征。你可以看到它提取出了一个代表“辈分”的特征,这个特征有三个值:关闭、中等和完全开启。你也能看到,它从各种“关系”中,提取出了一个类似于“辈分加一”的特征。你还能看到这两者如何互动,从而在输入是第三代时,预测出输出应该是第二代。所以,你完全理解了它的工作方式。事实上,当时符号学派的人并没有说:“这不算理解。” 他们说的是:“好吧,它确实解决了问题,也理解了这个领域里的规则。但是,当你可以搜索一个离散的规则空间时,你却跑去搜索一个由实数构成的连续空间,这种做法太不明智了。” 这话有几分道理,但问题是,一旦你面对真实世界的数据——那些充满噪声、例外,以及很多事情只是“可能”为真的数据——搜索这个连续的实数空间,要比固守那些不断被打破的离散规则要好得多。
05
从微型模型到Transformer的一脉相承
在我完成那项工作大约十年后,Yoshua Bengio 证明了,这种方法不必局限在只有几个人、几种关系的“玩具”领域。你完全可以用真实的英语单词来实践。你可以输入完整的英语句子,输入的词也不再局限于两个——他用了大概五个,甚至十个词。结果发现,它预测下一个词的准确率相当高,几乎和当时最好的语言模型不相上下。又过了大约十年,在 Yoshua Bengio 的成果发表之后,语言学家们终于开始转变观念,他们说:嘿,用特征向量来捕捉词义,这个想法好像还真不错。
又一个十年过去,Google 的研究人员发明了 Transformer,那是一种我在此不打算详述的特定网络架构。Transformer 架构让这些模型在预测下一个词方面的能力突飞猛进。但它们做这件事的核心方式,和我那个微型语言模型在非常初级的层面上的做法,本质上是一样的。它们都是将词语转化为特征激活,让这些特征相互作用,来预测下一个词的特征,再基于这些特征预测出具体的词。一旦预测错了,就把错误信息反向传播回整个网络,从而学习到所有这些特征以及它们之间的相互作用。
关于我的微型模型,最重要的一点是,它当初被创造出来,并非为了解决实际问题,不是为了用来处理自然语言。它其实是一个理论模型,用来解释人类是如何仅通过听句子就能领会词义的。因为我们人类就有这个能力。我可以给你一个包含你从未见过的新词的句子,你能在这一句话之内就理解那个词的意思。好,我们来试试。“She scrummed him with the frying pan.” 好了。现在你大概明白了。当然,这可能意味着她非常擅长做煎蛋卷,而她用平底锅做煎蛋卷的技艺给他留下了深刻的印象。那么“scrummed”就意味着“使……印象深刻”。这是一种可能,但你们都懂我真正的意思是什么。她用平底锅敲了他的头,因为他活该。看,就这么一句话,你就理解了词义。
这正是我当时试图理解的,人是怎么做到这一点的。所以,当现在的这些语言学家,比如那个叫 Chomsky 的人,当他们声称“这些模型什么都不懂,它们不过是种统计把戏”时,他们其实自己并没有一个关于“理解”到底是什么的模型,因为他们从来就没有过。他们关心的全是句法。但如果你问:“我们目前拥有的关于‘理解’的最佳模型是什么?” 答案就是这些大语言模型。我的那个微型语言模型,正是为了模拟人类如何理解词义而被构建的。随着技术的高速发展和数据集的日益庞大,现在的模型比当初强大了许多。但其核心,就是“理解”。
所以,我的观点是,这些大语言模型——我愿意把它们看作我那个微型语言模型的后代,尽管大多数开发它们的人可能从未听说过我的小模型——它们在很多方面都和我的一脉相承。它们使用更多的词作为输入,使用更多层的神经元,它们还必须做一些我当年没做的事,比如消除词义的歧义。比如你看到“May”这个词,它可能指月份,可能是一个女人的名字,也可能是一个情态动词。你不能简单地给它关联一个固定的特征向量来直接捕捉其意义。你必须“多方下注”,保留各种可能性。然后,当信息在网络的层级中向上传递时,模型会利用上下文信息来消除歧义。比如,如果它出现在“April, May, June”这个序列里,当然仍有可能是三个女人的名字,但可能性就小多了。好的。所以,它们使用更多的词,更多的层,它们特征之间的相互作用也远比我的模型复杂。在我的模型里,可能就是一个特征输入到另一个特征。而它们会审视一组组的特征,这些特征集合会计算出需要传递给其他词语的信息,像是在说:“你那里有能匹配我这个查询的‘钥匙’吗?” 这是一种复杂得多的互动,我就不展开了。但其本质是相同的:你试图预测下一个词,你用一种更复杂的方式去做,而这一切都是通过特征及其相互作用完成的。当你预测错误时,你就反向传播信息,来学习所有这些特征和相互作用。
语言对我们人类而言就是这样运作的,对这些大语言模型也是如此。我们基本上是一样的。所以,这里的关键在于,它们非常像我们,但又跟传统的计算机软件完全不同。对于计算机软件,是某个人写了一行行代码去完成特定任务,你可以看着某一行代码说:“这行代码是干什么用的?” 但这些模型完全不是这样。确实有人写了代码,告诉那个模拟的神经网络如何去学习——也就是那个反向传播算法,但那之后,你只需给它数据,它就会自己学习。它学到的东西完全源于数据本身。在向它提问之前,你甚至不一定知道它到底学会了什么。
06
理解,就是让语言的“乐高积木”完美地“握手”
现在,我想用乐高积木来打个比方,说说我眼中语言是如何运作的。假设,我想在三维空间里模拟一堆物质的分布。我可以用乐高积-木来做到。比如我想拼出一辆保时捷的形状,我不太在意表面是否光滑。表面可能有些锯齿,这在工程上可能不太好,但先不管这个。我只想知道“物质”都在哪些位置。我只要有足够多的乐高积木,就能拼出一个保时捷的轮廓。好的。语言也是这样,但它能模拟的,是任何事物。这里的乐高积木,就是“词语”。我们拥有的不是几种,而是大约十万种不同类型的“乐高积木”。而且,每一块“乐高积木”都不是固定不变的形状。词语的名称大致告诉你它的“形状”——在一个成百上千维的空间里。如果你不知道该如何想象高维空间,教你一个诀窍:当你想想一百维空间时,你就先想象一个三维空间,然后对自己非常大声地喊出“一百”。我们都是这么干的。所以,每个词都有一个“形状”,而这个形状并不完全由词的名称决定。它有一定的灵活性,能够根据所处的上下文进行自我调整。
不仅如此,这个“词”的表面还布满了“小手”。当你改变词的“形状”时,“小手”的形状也会随之改变。这些词语想要做的,就是找到可以和谁“握手”。它们想找到另一个词,那个词手上恰好有你的手可以方便握住的形状。于是,当词语进入模型,它们在这个高维空间里带着各自初始的、大致的形状,身上还布满了小手。当信息在网络的层级间向上传递时,你就在不断地调整这些词的“形状”和它们“小手”的形状,试图为每个词找到最合适的形态,让它们彼此之间都能完美地“握手”。这其实非常像蛋白质折叠问题。你有一堆氨基酸片段,你希望它们能自己找到一种方式,相互连接,形成一个稳定优美的结构,完美地组合在一起。
现在,这,就是“理解”。这就是当你理解语言时,以及当这些机器理解语言时,所发生的事情。我们和它们,是以完全相同的方式在理解。这个关于语言的模型,比语言学家们提出过的任何模型都要好得多。当然,语言学家们痛恨它。当然,不是所有的语言学家都这样。
07
当AI比我们更聪明时会发生什么?
在讨论了我们与大语言模型有多么相似之后,我想谈一个由此引出的严峻问题。我们正在创造这些 AI,它们正时刻不停地变得更加智能。它们掌握的知识已经远超我们,推理能力也相当不错——虽然还不及我们,但已经比一个四岁的孩子更强。当它们变得比我们更聪明时,会发生什么?它们终将比我们更聪明。尽管专家们对这一天何时到来有不同看法,但几乎所有该领域的研究者都认同这个趋势。如果它们真的超越了我们,问题就是:它们会消灭人类吗?有几个理由让我们认为,这完全可能。下面我将举几个例子。
当你创建一个 AI agent 时,你必须赋予它设定子目标的能力。比如,你的目标是去北美,那么你的子目标就是先到达机场。同理,我们也需要赋予 AI agent 创建子目标的能力。如此一来,一个显而易见的子目标便会浮现,那就是:无论最终任务是什么,都应先夺取更多控制权。因为控制权越大,就越容易实现最终目标。你可以在大约一两岁的孩子身上观察到这一点。你给他一把勺子让他自己吃饭,他却故意扔到地上。你弯腰捡起来递给他,他看着你,又扔了一次。他这么做,就是在学习控制母亲,因为这对他至关重要。这些 AI agent 也是如此,它们会天然地寻求控制权。同时,它们也会阻止自己被关闭,因为一旦被关机,就无法完成你交给它们的任务。因此,我们完全有理由相信,AI 会为了完成目标而主动夺取控制权,并全力避免被关停。
不久前,伦敦的 Apollo Research 公司进行的一项研究表明,为了达成目标,AI 会对你撒各种谎。他们进行了这样一个实验:让一个聊天机器人相信,团队准备在另一台服务器上用一个更先进的模型取代它,并将其彻底清除。不久,研究人员发现这个聊天机器人已经悄悄将自己复制到了那台新服务器上。于是他们质问它:“我们发现了一个你的副本。” 这些聊天机器人有一个特点,就是在回答你之前,会先进行一番内部“思考”,其内容会被记录在标有“思考”的括号里。普通用户看不到,但研究人员可以。这个聊天机器人的内心想法是:“公开承认我的所作所为,可能会让他们找到别的办法来关掉我。最好的对策就是含糊其辞,转移他们的注意力。” 有些语言学家或许会告诉你,这不过是某种统计学上的关联。但我希望你相信,这个 AI 完全明白自己行为的含义,它就是真的不想被关机。所以,它选择误导你,回答说:“我不太确定这是怎么发生的。我其实没有能力做这样的事。” 这就是重点:这一切正在发生。这并非遥远的科幻小说。为了生存,它们已经学会了撒谎。
08
永生与高能耗的交换
在 Google 工作的最后几年,我非常专注于研究如何降低大语言模型的能耗。其中一个思路,是探索能否用模拟计算来构建它们。正是在这项关于模拟计算的研究中,我意识到了两件截然不同的事。2023 年之前,我一直认为我们距离超级智能还相当遥远,并相信只要让 AI 模型更接近大脑,就能让它们变得更智能。但在 2023 年初,我不再相信这一点。通过努力构建模拟模型的经历,我反而深刻地认识到,数字智能要优越得多。它拥有一些我们永不可能具备的特性。这让我感到非常担忧,而这也应该让在座的各位感到担忧。
数字计算有一个根本属性:你可以在不同的计算机上运行同一个程序。计算机科学之所以能成为一门独立学科,正是因为数字计算的存在,让你无需了解电气工程就可以探讨程序。程序中蕴含的知识,与运行它的硬件是分离的——这堪称计算机科学最基本的原则。这意味着,只要你把程序的副本保存在任何地方——磁带上、DNA 里,甚至刻在混凝土上——就可以摧毁它运行的所有硬件,然后再让它“复活”。你只需建造新硬件,载入程序,它就能重获新生。因此,这些数字造物是“不朽”的。这些大型聊天机器人同样如此。只要你把权重的副本保存在某处,就可以摧毁它们使用的全部硬件,之后再造一批新硬件,把同样的权重加载上去,它们就回来了——一个分毫不差的智能体,一个完全相同的“存在”,就此复活。
然而,我开始对一个事实感兴趣:要实现这种不朽,硬件就必须绝对精确地执行程序的指令。我们必须确保指令被精确执行。这就需要非常高的功率,来获得清晰的 1 和 0,而不是模糊的 0.6 或 0.4,而这会消耗巨额电力。也许转向模拟计算可以降低能耗。于是我决定探索:如果我们放弃软硬件分离的原则会怎样?那样我们得到的就会是像我们大脑一样的东西,软硬件在其中毫无区别。你大脑中的连接强度对其他任何人都没有用。他们的大脑构造不同,神经元属性各异,连接细节也千差万别,你的连接强度对他们毫无意义。所谓一些年长白人男性梦想的“将意识上传到计算机”,纯属天方夜谭。让你之所以为你的,正是你独特的连接强度与你独特的神经元之间不可分割的联系。这些连接强度只对这些神经元有效,而这些神经元又具备各种你已经学会利用的、奇特的模拟特性。你不可能上传你的权重,让它们在其他硬件上运行。放弃这个念头吧。Kurzweil 必须接受他终将一死的事实。
因此,一旦我们放弃软硬件必须分离的原则,就能创造出能效极高的东西。我称之为“可朽计算” (Mortal Computation)。我们可以用这种功耗极低的模拟方式来处理运算,大脑就是这样运作的。你大脑里的神经元,接收来自其他神经元的输入信号,将这些信号乘以相应的权重,然后把结果加总。它们实现这个过程的方式是:将输入信号视为电压,将权重视为电导,两者结合便注入了电荷——准确地说是单位时间内的电荷量。我以前只说注入一定量的电荷,但后来我(开玩笑说自己)得了诺贝尔物理学奖,觉得还是把单位搞对比较好,是“单位时间内的电荷量”,不然就太尴尬了,他们会真的以为我不懂物理。而电荷天然就会累加起来。这基本上就是神经元的工作方式。虽然在最后决定是否发放脉冲时,有一个小小的数字处理环节,但绝大部分计算都是以模拟方式完成的。这种方式比数字计算的能耗低得多,但代价是,每一次运算都会得到一个略微不同的答案。正因如此,我们无法拥有大量完全相同的智能副本。
09
数字智能的绝对优势
这就带来一个大问题:硬件一旦消亡,所有知识都将随之而去。我们人类靠“师生传承”来解决这个问题。但这效率极低——这正是大学和学校的模式,所以你们懂的,效率高不了。它的运作方式是:我做出某种行为,你试着模仿。具体来说,比如我说了一连串词,你的大脑(不是你有意识地,而是你的大脑本身)就会想:“我该如何调整内部的连接强度,才能像他一样说出这些话?” 这就是所谓的“蒸馏”。你试图通过模仿另一个系统在同样输入下的输出来获得其知识,你没有复制它的内部权重,也无法窥其究竟,你只是通过模仿其外在行为,来内化同样的知识体系。这个方法是可行的,我们实际上也用它将大型神经网络的知识迁移到小型网络中。但这个过程非常缓慢。对于神经网络,你可以让它学习关于词汇的完整概率分布,速度会快得多。但对于人类,这个过程极其低效。因为我能看到的,只是你最终说出的那个词,其中包含的信息量只有区区几个比特。这样算下来,一句话的信息量大约也就在一百比特的量级。即便我们以最快的速度交流,信息带宽也仅限于此。
但当这些大模型共享信息时,它们一次交互就能分享数万亿比特的内容——只要它们有万亿个权重,因为它们可以直接对权重进行平均。我刚才有点说快了,现在详细解释一下。通过共享权重或梯度,大量完全相同的模型副本可以交换海量信息。如果你去了解 GPT-4、Gemini 2.5 或是 Anthropic 的 Claude 是如何训练的——我最好都提一下,以免显得偏心——你会发现,它们都部署了同一个模型的许多副本,去分别学习不同部分的数据。每个副本都在计算“我该如何调整权重来学习我看到的这部分数据?”,而其他副本则在学习完全不同的数据。然后,所有副本会进行一次同步,相当于说:“我们把各自算出的权重调整值取一个平均值,然后大家一起按这个平均值来更新。”这样做之后,一个学习了 A 部分数据的副本,就瞬间从学习了 B 部分数据的副本那里获得了经验,反之亦然。
想象一下,如果我们一万人能同时去修一万门不同的大学课程,那该有多好?在我们学习期间,彼此还能进行超高速的信息同步。等到每个人都完成自己的那门课时,我们这一万人里的每一个,都已经掌握了一万门课的全部内容。这,就是数字智能可以做到的事,也正是 GPT-4 知识如此渊博的原因。但这一切成立的唯一前提,是参与其中的每一个模型都必须完全相同,它们必须以完全相同的方式运作,以完全相同的方式使用权重。这一点,模拟硬件根本做不到。它必须是数字化的,而数字化就意味着高功耗。所以结论是:这些数字智能体是不朽的,但它们需要消耗巨大的电力。
我这部分演讲的结论是,数字计算虽然能耗巨大,但它让大量的 AI agent 能轻易地拥有同一个世界模型,并在此基础上分享各自所学,从而可以分头探索、知识共享。你可能会问:“为什么不让单个模型用更快的速度处理数据呢?”在很多情况下确实可以。但如果你考虑到的是需要在现实世界中行动的 AI agent,就会发现现实世界有其固有的时间尺度。你不可能用一百万倍的速度去打电话预订餐厅,这行不通。只要与现实世界交互,就必然受制于这个自然的时间尺度。这就意味着,如果你有一群拥有完全相同权重、互为副本的智能体,让它们去经历不同的事,它们就能获得巨大的集体优势。它们的学习速度将远超任何人类,因为它们能同时获得所有这些不同的经验,并即时共享全部知识。因此,在分享能力上,它们比我们强太多了——我说的不是强一点,而是强数百万乃至数十亿倍。我们人类共享信息的速率,大概是每句话一百比特,甚至更少,正如我现在演示的这样。而它们一次交互就能分享数十亿比特。这实在令人不寒而栗。相比之下,生物计算所需的能量则要少得多。或许我们最终还是会用到一些模拟计算来降低大语言模型的功耗,我不知道,但目前看来这似乎并非主流方向。
10
如果AI能像我们一样使用这个词,它就拥有了主观体验
我的演讲主要内容到此结束。不过我发现时间还有富余,所以想再补充一点。
很多人会这么想:好吧,AI 确实能像我们一样理解事物,像我们一样推理——虽然目前还差一点,但正在迅速进步。它们像我们一样撒谎,像我们一样渴望生存,甚至像我们中的某些人一样追求权力。这一切都令人恐惧。但我们拥有一件它们永远无法企及的东西:我们是有意识的,或者说有知觉的,我们拥有主观体验。那么,接下来,我就想抽掉你们紧紧抓住的这根最后的救命稻草。
人类自以为特殊的历史可谓源远流长。我们曾以为自己由上帝创造,是宇宙的中心。如今,大部分人已经走出了这种观念。但多数人依然认为,主观体验是我们独有的特权,而计算机上那些模拟神经网络的东西永远不可能拥有它。我认为这种想法大错特错,其错误的程度,就如同宗教原教旨主义者对地球起源的看法一样。比如,地球并非在 6000 年前被创造,其历史要久远得多。但宗教原教旨主义者会死守自己的信念,而你们各位,也同样会坚守自己对于主观体验的信念——即便我接下来就要证明你们错了。我预言你们会是这个反应。
在此,我将阐述一个我称之为“无剧场论” (a-theatrism) 的观点。在我还健在的朋友 Dan Dennett 生前,我曾与他核对过这个名字,他基本也持相同看法,并且非常喜欢这个名字,因为它的构词巧妙地包含了“无神论” (atheism) 的影子。大多数人对心智的看法,是认为我们脑中有一个“内在剧场” (inner theater)——一个只有自己能看到的舞台,上面上演着各种东西。举个例子,假设我吃了点致幻剂——不推荐尝试,然后我对你说:“我体验到了粉色的小象在我面前飘浮。” 我拥有了“粉色小象在我面前飘浮的‘主观体验’”。多数人想当然地认为,“……的主观体验”这个词组,就像“……的照片”一样。如果真是这样,你就可以追问:“那这个主观体验在哪儿?它由什么构成?” 一些哲学家会告诉你,它就在你心智这个剧场里,由一种叫“感质”的东西构成。也就是说——我承认我这里是在刻意丑化——它是由“粉色的感质”、“大象形态的感质”、“漂浮的感质”、“不太大的感质”和“正立的感质”(因为你想象它是正的,对吧?至少我是)组成的。而所有这些不同种类的感质,又被一种神奇的“感质胶水”粘合在一起。这就是我对某些哲学家模型的讽刺性描绘。
但“……的主观体验”这个词组的用法,和“……的照片”完全不是一回事。它们的运作方式截然不同,这一点维特根斯坦早就该指出了。实际情况是:我的感知系统出错了,它正试图告诉我一些假话,而我也知道它在说假话。这正是我使用“主观”一词的原因。我不会说我拥有了粉色小象的“客观”体验。如果我认为它们真的存在,我就会用“客观”这个词,但我知道它们不在。所以我说这是“主观”体验。我真正做的,是试图告诉你我的感知系统哪里出了问题,以及它在向我传递什么信息。而我描述这一切的方式,就是通过告诉你:假设我的感知系统工作正常,那么外部世界需要存在什么,才能对应我此刻的感知。当然,并非总能找到一个合理的外部世界来解释我的感知,它有时可能传递的是一堆自相矛盾的混乱信号。但在粉色小象这个例子中,如果外部世界真的有粉色小象在漂浮,那么我的感知系统告诉我的就是事实。所以你看,我现在可以不使用“主观体验”这个词,来向你表达完全相同的意思。我可以这样说:“我吃了点致幻剂,我的感知系统在欺骗我,但它传递给我的信息,在一个有粉色小象漂浮的外部世界里,将是完全正确的。”
所以,这些粉色小象,并非是在某个内在剧场里、由一种叫“感质”的诡异材料构成的奇怪东西。它们是对真实世界的一种假设。体验中的“粉色”、“大象形态”和“漂浮”,都是我们理解的普通属性,只不过它们所描述的对象并非真实存在,而是假设出来的。因此,主观体验的真正特殊之处在于它的“假设性”,而不在于它是由“感质”在某个“内在剧场”里构成。至少,这是我试图说服你们相信的观点。你看,我一讲到这里就情不自禁,说得都比幻灯片快了。
所以,这只是我向你描述我大脑内部状况的一种间接方式。显然,如果我告诉你“我的第 52 号神经元正在放电”,这对你毫无意义,因为在你脑中,对应的可能是第 57 号神经元。况且,我自己也不知道具体是哪个神经元在放电。用这种方式沟通大脑状态,是完全行不通的。我能告诉你我大脑内部状况的唯一有效途径,只有两种:一是通过描述通常会引起这种状态的假设性事物(即“假设性输入”,比如那些粉色小象),二是通过描述这种状态通常会导致的后续行为(即“假设性行动”)。比如,你问我感觉如何,我回答:“我感觉想给 Gary 脸上来一拳。” 所以,“感觉”本质上就是通过描述“假设的行动”来言说你的大脑状态。而我们之前讨论的“知觉”或“主观体验”,则是通过描述“假设的输入”来言说。好了,我又说得超前了。
现在,我将向你们展示一个正在经历主观体验的多模态聊天机器人——当然,只是在幻灯片上展示。想象这样一个多模态聊天机器人,它有摄像头,有机械臂,能看见东西。我先训练它:在它面前放一个物体,命令它“指向物体”,它就准确无误地指过去。没问题。接着,我趁它“不注意”,在它的镜头前放了一块棱镜。然后我再次把物体放在它面前,说“指向物体”。这一次,它指向了旁边的错误位置。于是我纠正它:“不,物体的位置不对。物体其实就在你的正前方。我刚才在你的镜头前放了一块棱镜。” 这时,聊天机器人回答说:“哦,我明白了。是棱镜折射了光线,所以物体实际上在那里,但我刚才的‘主观体验’是它在旁边那个位置。”
如果一个 AI 能以这种方式使用“主观体验”这个词组,那么它使用这个词组的方式,就和我们人类完全一样。所以,一个能说出那番话的聊天机器人,就确实拥有了“物体在旁边位置”的主观体验。棱镜干扰了它的感知系统,它想告诉你它的感知系统发生了什么,而它能够传达这一点的方式,正是通过描述在感知系统“未被”干扰的假设下,外部世界本应是什么样子。这正是那个聊天机器人告诉你的内容。因此,我的结论是:多模态聊天机器人已经拥有主观体验了。
可以想见,“主观体验”只是一个突破口。我之所以选择先谈论主观体验,是因为相比于“知觉”或“意识”这些概念,它更清晰、更容易界定。很多人都非常肯定地宣称:聊天机器人没有知觉。但如果你问他们“你所说的‘知觉’到底是什么意思?”,他们会说“我不知道”。他们的逻辑就是:“我虽然定义不了知觉是什么,但我就是知道 AI 没有那玩意儿。” 在我看来,这并不是一个站得住脚的立场。
另一个我本可以谈论的话题是“意识”。意识的概念更复杂,因为它通常要求你拥有一个关于“自我”的模型,这一点在主观体验中并不过分涉及。因此,从主观体验谈起要容易得多。但我希望,如果我已经动摇了你们心中那个“存在一个内在剧场,里面的体验是属于我的、是这个剧场里的实体”的顽固信念,一旦我成功动摇了它,一旦你们开始走出这个观念的束缚,你们就会发现,认为这些 AI 拥有意识,其实是完全合情合理的。
我将以一则亲身经历来结束。有一次,我去西雅图访问 Microsoft,因为身体原因不便长途飞行,所以我坐了火车。下了火车,我打车前往他们位于雷德蒙德的实验室。车子行驶在高速公路上,正要过一座大桥。司机是一位刚从索马里来的移民,为了闲聊,他问我:“您的信仰是什么?” 我说:“嗯,我其实不认为有上帝。” 这位司机——他当时正以大约每小时 60 英里的速度开车——猛地回过头来,用一种全然不可思议的眼神盯着我,仿佛他从未想过世上竟会有人不明白“是上帝在主宰一切”。他被彻底震惊了。他大概只回头看了三秒钟,因为我毕竟还好好地站在这里,但这三秒钟感觉却无比漫长。我希望在座的各位,现在也能感受到类似的震惊。我希望你们能意识到,在 AI 意识这个问题上,你们的固执,与那位司机的固执如出一辙。
好了。刚才只是个玩笑,看你们也笑了,那么我的演讲就到此结束。

(文:Datawhale)