重磅!北大联合字节VAR模型获NeurIPS 2024最佳论文:改写图像生成的未来范式

北大与字节跳动团队的论文《Visual AutoRegressive Modeling: Scalable Image Generation via Next-Scale Prediction》获得NeurIPS 2024最佳论文奖。该模型提出了多尺度预测的新范式,显著提升了图像生成的效率和质量,并在视觉生成领域验证了‘规模化定律’。

Andrej Karpathy 首次公开私人邮件:揭秘Transformer 注意力机制真相

揭秘Transformer‘注意力’机制的起源故事,它源于2014年实习生Dzmitry Bahdanau在Yoshua Bengio实验室中的实践思考与创新。通过软搜索设计解决了序列到序列模型中的瓶颈问题,最终提出RNNSearch架构,并引入softmax加权平均技术。

李飞飞「世界实验室」重磅推出 AI“造物主”:一张图片生成 3D 世界“任意门”

李飞飞教授的World Labs团队推出世界生成技术,用户可以从单张图片生成3D物理世界,并实现交互式探索。此技术解决了现有生成式AI缺乏控制力和一致性的难题,有望改变影视、游戏等行业的制作方式。

获陶哲轩认可!阿里QwQ-32B入选「AI数学奥林匹克竞赛」白名单模型

第二届人工智能数学奥林匹克竞赛(AIMO)认可阿里发布的推理模型QwQ-32B。该模型被纳入竞赛模型白名单,遵循三项设计原则:AI模型需符合人类参赛者的要求、特等奖条件和公共共享协议。著名数学家陶哲轩关注并认可QwQ-32B模型的进展,强调了白名单审批流程的重要性及其在推动竞赛创新中的核心作用。

从“永恒”到“不到一年差距”:谷歌前CEO施密特为何对中国AI的预判180度大转弯

谷歌前CEO埃里克-施密特表示,中国在人工智能领域追赶美国的速度令他震惊。5月时他认为中美存在2-3年差距,但11月观察到可能仅落后一年;目前认为中国有望在一年内赶上。施密特指出,这使得其他国家远远落后,且第三方可能从中国或美国窃取技术。