Yann LeCun:我不玩大模型了,那都是过去式!
Meta首席AI科学家Yann LeCun表示不再对大语言模型感兴趣,认为它们并非通往真正人工智能的正确路径。他指出大语言模型缺乏理解物理世界的能力,没有持久记忆,并且无法进行真正的推理和复杂规划。
Meta首席AI科学家Yann LeCun表示不再对大语言模型感兴趣,认为它们并非通往真正人工智能的正确路径。他指出大语言模型缺乏理解物理世界的能力,没有持久记忆,并且无法进行真正的推理和复杂规划。
研究者提出了一种新的视觉自监督学习模型Web-SSL,它能够在不依赖语言监督的情况下,在大规模数据集上与CLIP模型媲美,并在多种视觉问题解答任务中表现出色。
Meta首席AI科学家LeCun断言大语言模型永远不会成为真正的人工智能。他强调LLM无法达到人类水平的AI,并指出当前架构本质上无法进行真正的推理。
Transformer模型可能迎来新变化。一篇最新论文提出无需归一化的Transformer模型能够达到甚至超过带有归一化层的性能,通过动态双曲正切函数(DyT)替代传统归一化层,有望进一步改进AI模型性能。
Meta等机构提出的新方法RIP通过进化算法筛选低质量数据,提高LLM性能。基于两个假设:无效提示会导致不准确响应和复杂模糊的提示产生多种解释。RIP方法成功筛选高质量提示,提升模型在多个基准上的表现。
著名人工智能科学家Yann LeCun批评硅谷某些圈子存在的错位优越感,并将其分为三个阶段的症状:早期、中期和晚期。他认为科学和技术的进步需要更多人参与并积极分享创新成果,强调了开放共享的重要性。
Meta首席AI科学家Yann LeCun警告硅谷某些精英存在‘救世主病毒’,认为他们垄断了所有创新点子,并用优越感给科技创新上锁。LeCun指出这种心态会形成技术封锁,他呼吁拆围墙、换血和移植开源基因来解决这一问题。
低成本的DeepSeek模型引发了市场对AI硬件需求的担忧。OpenAI和Meta等公司正准备迎接推理需求的增长,同时专家指出训练成本降低可能不如推理成本降低更重要。