2025世界人工智能大会(WAIC 2025)开幕在即,这回,“深度学习教父”、图灵奖、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)受邀将真人出席发表演讲,而不是远程线上交流的方式。
今天,他还和图灵奖得主姚期智、约书亚·本吉奥(Yoshua Bengio)等共同签署了《AI安全国际对话上海共识》,据公开信息了解,这是现年77岁的杰弗里·辛顿首次公开造访中国,标志着他对中国AI发展进程的密切关切。
作为AI圈的顶尖学术大神,杰弗里·辛顿不仅致力于探索AI技术的前沿创新,也时常展现出一位前沿科学家对技术风险的深度忧思与辨证看法,在AI即将跨越“通用智能临界点”的当下,人类亟需构建全球协作的治理框架,他一直呼吁要在AI创新与安全之间尽快找到平衡。
今年的WAIC,辛顿会带来怎样的观点分享备受业界关注。
杰弗里·辛顿的家族非常具有传奇色彩,可谓满满的“科学家”基因。
他的曾曾外祖父乔治·布尔(George Boole)是19世纪最具革命性的数学家之一,创立的布尔代数用0和1的逻辑运算描述命题关系,直接为现代计算机的二进制系统奠定了理论基础。
曾祖父查尔斯·霍华德·辛顿(Charles Howard Hinton)是一个在高维几何与科幻文学均有造诣的跨界奇才,提出的“超立方体”后来成为爱因斯坦相对论的数学工具之一。
辛顿的父亲霍华德·辛顿(Howard Hinton)是剑桥大学动物学系教授,直接启发了辛顿对“仿生智能”的探索。
辛顿的堂姑琼·辛顿(Joan Hinton)是参与过曼哈顿计划的少数女性核物理学家,曾在费米团队中负责中子物理研究。
年逾7旬之后,辛顿因在深度学习方面的贡献与Yoshua Bengio、Yann LeCun共同获得2018年的图灵奖;2024年,辛顿与John Hopfield因对人工神经网络和机器学习的贡献共同获得诺贝尔物理学奖。
正如诺奖委员会在颁奖词中所述,辛顿的成就“不仅是个人天才的体现,更是一个科学世家数百年积累的爆发”,从布尔代数到神经网络,这个家族用数学与逻辑编织了一条连接过去与未来的智慧纽带。
作为深度学习奠基人,辛顿培养了不少引领当前AI革命的顶尖研究者,形成“辛顿学派”。
比较知名的如伊尔亚·苏茨克维(Ilya Sutskever),是辛顿在多伦多大学指导的博士生,两人共同开发的AlexNet在2012年ImageNet竞赛中夺冠,直接引发深度学习复兴。
苏茨克维后来成为OpenAI联合创始人,主导开发了GPT系列模型,并提出Transformer架构的核心思想,他在2023年从OpenAI离职后创立AI安全公司,延续了辛顿对AI伦理的长期关注。
他的硕士学生亚历克斯·克里热夫斯基(Alex Krizhevsky)通过优化GPU并行计算和Dropout正则化技术使得AlexNet较传统方法提升近10个百分点,这一突破直接推动英伟达GPU在AI加速领域的应用爆发。
布伦丹·弗雷(Brendan Frey)在辛顿指导下完成博士论文《图模型的高效推理》,其团队开发的DeepSTARR模型能精准预测增强子活性,在2023年曾被《自然》评为十大技术突破之一。
贝叶斯深度学习奠基人克里斯托弗·威廉姆斯(Christopher Williams)也是辛顿指导的首位博士生,其团队开发的Pyro库已成为概率编程的主流工具。
虽然被誉为“AI教父”,但杰弗里·辛顿曾称后悔研发人工智能技术,担心人工智能会为世界带来严重危害。
日前,杰弗里·辛顿与AI初创公司Cohere联合创始人尼克·弗罗斯特进行了一场炉边对话,辛顿指出,大语言模型在复杂任务上出错不代表它缺乏理解能力,就像学习障碍者也能做对简单题一样,推理能力是渐进的,不是非黑即白,大模型通过压缩连接数量、寻找知识间深层联系展现出真正的“创造力”,甚至超越大多数人类。
此外,他强调AI带来的双重风险,短期内可能用于操纵选举、制造武器,长期则可能因超越人类智慧而“接管世界”。
辛顿表示AGI可能10年内到来,进展比预计的更快、更危险,超级智能可能在4-19年内出现,10年内落地的概率很高,并称AI接管人类的可能性在10%-20%之间。
最强的AI大模型通过“思维链”机制,打破了传统AI学派关于“神经网络不能推理”的判断,并表现出了故意欺骗和隐藏真实意图的能力。
辛顿认为5年内多数脑力工作或将被替代,直言“奥特曼们口不对心”,AI公司表面欢迎监管,实则回避有实际约束力的规则。当前只能依赖公众舆论推动政策进展。
对于开源模型辛顿并没有太多支持观点,他认为开放模型权重会极大降低AI技术滥用门槛,他更支持少数可信公司控制AI模型。
辛顿的贡献不仅在于技术突破,更在于他示范了科学家的完整人格——既要有开拓未知的勇气,也要有反思技术的担当。
今天,在上海期智研究院,杰弗里·辛顿、姚期智、本吉奥等20位行业专家还签署了一份《AI安全国际对话上海共识》,再次把目光聚焦安全领域。
共识指出,人工智能系统能力已接近甚至可能超越人类,但人类尚未掌握有效的控制它的方法,因此,呼吁全球增加对AI安全的投入,确保高级人工智能系统的对齐与人类控制,进而保障人类福祉。
全球AI研究者必须联合起来,确保人工智能系统符合人类价值观,国际社会需要合作划出人工智能开发不可以逾越的红线(即“高压线”),这些红线应聚焦于人工智能系统的行为表现,其划定需同时考量系统执行特定行为的能力及其采取该行为的倾向性。
此外,各国还应建立一个具备技术能力、具有国际包容性的协调机构,汇聚各国人工智能安全主管机构,以共享风险相关信息,并推动评估规程与验证方法的标准化。
目前,监管体系、人工智能安全研究投入以及风险缓解方法大幅落后于技术本身的迭代。短期内,业内需通过可扩展的监督机制应对人工智能欺骗行为,长期来看,可能需要化被动为主动,转而构建基于“设计即安全”的人工智能系统。
明日,WAIC 2025正式开幕,杰弗里·辛顿会在大会上分享怎样的最新观点和趋势预判,可以拭目以待。
-END-
(文:头部科技)