自回归模型的新突破:首次生成2048×2048分辨率图像
研究人员提出TokenShuffle方法显著减少多模态大语言模型中的视觉token数量,提高效率并促进高质量图像生成,超越同类自回归和强扩散模型。
研究人员提出TokenShuffle方法显著减少多模态大语言模型中的视觉token数量,提高效率并促进高质量图像生成,超越同类自回归和强扩散模型。
本文首次系统性地研究并提出了高效建模长上下文视频生成的方法,通过重构视频生成任务为逐帧预测,并引入长短时上下文的非对称patchify策略和多层KV Cache机制,实现了高效的长视频训练与长上下文视频生成。
达摩院在ICLR 2025提出了动态架构DyDiT,通过智能资源分配将DiT模型的推理算力削减51%,生成速度提升1.73倍,FID指标几乎无损,并且仅需3%的微调成本。
ICLR 2025杰岀论文奖揭晓!3篇杰出论文涵盖安全对齐、语言模型学习动态和编辑等方面的研究成果,强调了当前大型语言模型存在的问题及潜在解决方案。
本文由 NUS ShowLab 指导完成,首次系统性研究长上下文视频生成。提出帧自回归模型FAR,有效解决长视频训练计算挑战,显著提升长时序一致性。
多模态思维链(MCoT)系统综述发布,介绍了其基本概念、分类法和应用场景,并探讨了当前挑战及未来研究方向。通过推理构建视角、结构化推理视角等六大技术支柱提升模型能力,改变机器人的操作、自动驾驶的安全性、医疗诊断的速度与准确性以及教育的个性化教学等方面。论文链接:https://arxiv.org/pdf/2503.12605