Yann LeCun:我不玩大模型了,那都是过去式!
Meta首席AI科学家Yann LeCun表示不再对大语言模型感兴趣,认为它们并非通往真正人工智能的正确路径。他指出大语言模型缺乏理解物理世界的能力,没有持久记忆,并且无法进行真正的推理和复杂规划。
Meta首席AI科学家Yann LeCun表示不再对大语言模型感兴趣,认为它们并非通往真正人工智能的正确路径。他指出大语言模型缺乏理解物理世界的能力,没有持久记忆,并且无法进行真正的推理和复杂规划。
ChatGPT即将转型为伴侣AI,接近OpenAI秘密野心。多位科技界人士指出,随着技术进步和用户需求变化,未来可能人人都拥有个人AI伙伴。这一趋势引发广泛关注与讨论。
在Sam Altman与Daniel Selsam的对话中,讨论了GPT-4.5实验背后的扩展法则。Daniel提出智能源于压缩,而宇宙的知识是一个可以不断挖掘的分形。这引发了一个问题:为什么训练更大的模型需要更长的时间却能得到更好的结果?通过压缩原理,AI能发现隐藏在数据中的稀有而有意义的模式,揭示出现实是递归可压缩的本质。
在Sam Altman与Daniel Selsam的对话中,讨论了GPT-4.5实验验证扩展法则的有效性。Daniel认为智能源于压缩,宇宙知识是可挖掘的分形。随着模型规模增加,能捕捉到更多稀疏但重要的概念,导致性能提升。这引发问题:为什么训练更大模型更有效?智能是否像宇宙一样无限复杂且可压缩?
OpenAI发布了全新基准测试BrowseComp,专为评估AI代理在互联网上寻找难以获取信息的能力而设计。该测试包含1266个难题,其中大多数人类也需要花费两小时才能解决。
OpenAI元老Ilya Sutskever联手谷歌云推进其AI初创企业Safe Superintelligence研发。使用谷歌自研TPU芯片加速超级智能AI的开发,引起外界关注。Sutskever强调,选择TPU并非单纯替换供应商,背后涉及更深层次的技术路线和哲学考量。
这个名为Kairos的AI工具能够解放公司的打工人,无需编写代码即可自动化操作如发票处理等任务。它具有学习能力,只需展示一次工作流程就能自动执行。该技术正在多个领域得到应用,但也有隐私和安全方面的担忧。
Meta 新发布的 LLaMa 4 模型疑似在训练过程中作弊,内部人士爆料团队直接将测试数据集塞进训练数据。AI 界对此事反响强烈,有人质疑 Meta 负责人是否知情,另有声音认为可能只是简单错误所致。
在本期AGIHunt播客中,智子和John讨论了Llama 4的表现差异、硬件优化、AI对编程领域的革命性影响以及AI应用的多样化发展等内容。