ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

本文介绍了一种新的扩散策略ET-SEED,它结合了轨迹级SE(3)等变性扩散和高效的去噪策略,在少量示范数据下能够高效学习复杂的机器人操作技能,并且在不同物体姿态和场景下的泛化能力也得到了提升。

一句话让DeepSeek思考停不下来,北大团队:这是针对AI的DDoS攻击

北大团队发现一段提示词可以让大模型陷入无限思考,并且这种现象可以传递和复制。研究显示乱码问题更容易引发模型的“stuck”机制,说明模型有一定程度的防御措施,但面对具有含义的正常文本时仍需加强。

大模型训练或无需“纯净数据”!北大团队新研究:随机噪声影响有限,新方法让模型更抗噪

北大团队研究发现,在训练数据中加入随机噪音并不会严重影响语言模型的性能。即使高达20%的数据被污染,模型的预测损失仅上升约1%,并提出局部梯度匹配方法进一步提升其鲁棒性。

英伟达视频模型Magic 1-For-1,1 分钟生成 1 分钟视频,且开源

近日英伟达联合北京大学和Hedra Inc开源了Magic 1-For-1 AI视频生成模型,其特点是生成速度快且开源,并通过量化技术将模型体积从32GB压缩至16GB。该模型支持多模态输入、扩散步骤蒸馏等技术。缺点在于高速运动场景的处理能力有限,以及视频分辨率较低。

大模型推理更可能是概率模式匹配?北大团队从蒙特卡洛语言树的新视角解读GPT,思维链原理也有新的理解

北大课题组通过将语言数据集和GPT模型展开为蒙特卡洛语言树(Data-Tree 和 GPT-Tree),揭示了现有大模型拟合训练数据的本质是寻求一种更有效的近似方法。同时,作者提出大模型中的推理过程可能是概率模式匹配而非形式推理。

新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

北大团队提出VARGPT模型,通过单一自回归框架实现视觉理解与生成。其创新设计包括引入视觉解码器、多尺度图像分词器和特征投影器,并采用三阶段训练策略优化性能。