ET-SEED:提升机器人操作泛化能力的高效等变扩散策略
本文介绍了一种新的扩散策略ET-SEED,它结合了轨迹级SE(3)等变性扩散和高效的去噪策略,在少量示范数据下能够高效学习复杂的机器人操作技能,并且在不同物体姿态和场景下的泛化能力也得到了提升。
本文介绍了一种新的扩散策略ET-SEED,它结合了轨迹级SE(3)等变性扩散和高效的去噪策略,在少量示范数据下能够高效学习复杂的机器人操作技能,并且在不同物体姿态和场景下的泛化能力也得到了提升。
北大团队发现一段提示词可以让大模型陷入无限思考,并且这种现象可以传递和复制。研究显示乱码问题更容易引发模型的“stuck”机制,说明模型有一定程度的防御措施,但面对具有含义的正常文本时仍需加强。
北大团队研究发现,在训练数据中加入随机噪音并不会严重影响语言模型的性能。即使高达20%的数据被污染,模型的预测损失仅上升约1%,并提出局部梯度匹配方法进一步提升其鲁棒性。
近日英伟达联合北京大学和Hedra Inc开源了Magic 1-For-1 AI视频生成模型,其特点是生成速度快且开源,并通过量化技术将模型体积从32GB压缩至16GB。该模型支持多模态输入、扩散步骤蒸馏等技术。缺点在于高速运动场景的处理能力有限,以及视频分辨率较低。
北大课题组通过将语言数据集和GPT模型展开为蒙特卡洛语言树(Data-Tree 和 GPT-Tree),揭示了现有大模型拟合训练数据的本质是寻求一种更有效的近似方法。同时,作者提出大模型中的推理过程可能是概率模式匹配而非形式推理。
香港中文大学、北京大学和上海AI Lab的研究者提出了一种结合思维链推理的新方法来提升自回归图像生成的质量和文本一致性,显著提高了图像生成的性能。
北大团队提出VARGPT模型,通过单一自回归框架实现视觉理解与生成。其创新设计包括引入视觉解码器、多尺度图像分词器和特征投影器,并采用三阶段训练策略优化性能。