Yann LeCun:LLM 绝无可能实现AGI!

大神LeCun 断言:大语言模型永远不会变成真正的人工智能!

Meta首席AI科学家Yann LeCun最近在采访中的言论再次引起轩然大波!

他毫不留情地表示:

「我们绝对不可能通过扩大LLM规模达到人类水平的AI,这根本不可能发生!」

这话一出,立刻在技术圈掀起激烈讨论。

到底LLM究竟能走多远?

我们真的需要一场架构革命吗?

LeCun为何如此笃定?

LeCun不仅断言LLM无法成为AGI,还进一步强调:「无论你从我那些更冒险的同事那里听到什么,两年内绝对不可能实现,这绝对不可能!」

他直接抨击了当下流行的观点:

「认为我们能在数据中心拥有一个天才国度的想法完全是胡说八道!」

在他看来,我们最多能得到的是: 「经过足够大量数据训练的系统,任何理性人可能问的问题都能通过这些系统找到答案,感觉上像有个博士坐在你旁边。

(Sam Altman:?

但LeCun强调这不是真正的智能:

但这不是真正的博士,而是拥有巨大记忆和检索能力的系统,而非能发明新问题解决方案的系统。

Hisku(@ZikuD_s)补充解释了LeCun的观点:

他指的是无论训练/测试设置如何的LLM。现代LLM中使用的架构本质上无法进行真正的推理。他在另一个播客中提出的原因是,语言在表示现实世界方面非常有限。

业界反应

AI Skeptic(@skeptic_ai)表示赞同:

我每天使用Cursor和Claude 3.7。对于准备好的演示很酷,但在实际开发生活中,它只是一个方便的工具。完全不感觉聪明。

而CrabSaison(@systemic_whisk)表示赞同并进一步分析道:

他绝对是正确的。人们继续把非常好的模式补全误认为是智能。LLM绝对不理解它们处理的信息上下文。这从经常使用它们应该是显而易见的,无论你是向Chatty-G提问,用Cursor或Claude Code编写软件,还是指示代理为你预订航班。

它们不是在理解,而是在驾驭我们分布式认知的复杂性。这才是真正有趣的发现:不是变形金刚网络,而是我们语言产物非凡的语义丰富性。

智能本身更多是有状态和有方向性的。

但也有人持相反观点,Pan Anon(@therealpananon)认为:

他的意思是「这是不可能的。只有JEPA才能让我们达到AGI」。可怜的家伙被自己的自负蒙蔽了。

到底什么才是真正的人类智能?

Juhani Merilehto(@JMerilehto)指出了讨论中的关键问题:

我们真的很需要对人类水平智能的可靠定义。

IGI Media(@IGI_Media)表示不认同:

我不同意。AI只能从书面、口头等学习。但它无法学习微妙的暗示、背景等。这些元素给我们的交流和互动带来实质。

AI将创造更好的科学,更有效的做事方式,以及其他机械和物理过程。但我不觉得它能仅仅通过阅读数据或视觉上复制他人的作品来掌握我列出的那些元素。

古老的说法「读懂弦外之音」,艺术家经常画画或歌手唱含有双关语的歌曲。所有AI能感知到的只是呈现在它们面前的东西。

是否需要新的架构?

Gonçalo Alves(@iamgoncaloalves)认为LeCun指的是「transformer架构」的局限性。

Travis Mitchell(@Travidroid)提出了更加深入的见解:

我相信他指的是一种具有真正类人存在感的智能,不仅仅是一个能够推理和思考的模型,而是反映人类水平智能完整光谱的模型。我碰巧同意,我认为我们正在迅速接近架构转变成为必要的点。

首先,架构必须变得更加高效。当前系统根本无法支持规模化的真正人类水平智能,更不用说超级智能了,特别是考虑到电力需求和与此类技术互动的大量用户。

其次,未来无疑属于本地化系统。我们必须向能够在轻量级、资源高效的设置上运行先进AI的架构发展。

一旦解决了这两个关键挑战,实现真正的人类水平智能不仅将成为可能,而且会感觉完全自然。

Sixx(@SixLolis)也认为:

他指的是LLM本质上无法泛化。架构不允许这样做。通过更多训练数据扩大模型规模并不能使它们泛化。

LLM将如何推动未来发展?

尽管LeCun对LLM成为AGI持悲观态度,Flowers(@flowersslop)提出了一个乐观的前景:

由于推理模型仍然是LLM,我假设他也指它们。当前的LLM有一些明显的缺陷,尚未得到解决。

但同样明显的是,它们将大大加速科学进步,如果有更好的替代方案,人类很快就会在LLM的帮助下找到它。

Arpit Sharma(@Arp_it1)总结道:

真正的突破将来自改进底层架构和推理能力。

尽管存在诸多争议,Ultra K(@TheK420Metric)认为LeCun可能会再次被证明是错的:

他以前错了,我很确定他又错了。这家伙即将再次改变立场,当AGI仅通过LLM实现时。有多种路径。一些方法比其他方法更有效,我认为我们只是触及了产生一般智能和超级智能的可能方式的表面。

语言就像一个通用解码器,允许智能生物概念化并理解他们的现实。无论训练方法或神经网络的结构如何,语言都将被用来理解智能体之间共享的信息。

但GaonNurri对此提出质疑:

语言不是智能的根源,它只是可用信息的一小部分。

另外,他谈论的是当前架构的局限性。LLM能发明一种不是它们自己训练的语言,就像人类或动物一样吗?绝对不能。

争论仍在继续,但一点变得越来越清晰:

无论LLM能否成为通往AGI的道路,它们都已经深刻地改变了我们与技术互动的方式。

LeCun的判断会被历史证明是正确的,还是他低估了大语言模型的潜力?

你站哪边?

(文:AGI Hunt)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往