谢赛宁摊上事了!被曝论文藏「只给好评」提示词操纵AI 审稿
NYU教授Saining Xie在自己的论文中藏了引导AI给出好评的提示词,引发学术界争议。事件揭示了AI时代学术评审的新挑战及诚信边界问题。
NYU教授Saining Xie在自己的论文中藏了引导AI给出好评的提示词,引发学术界争议。事件揭示了AI时代学术评审的新挑战及诚信边界问题。
中科院自动化所谭铁牛团队提出BridgeVLA,通过将预训练和微调的输入输出对齐到统一2D空间来提升3D VLA模型的数据效率与操作效果。
本文介绍了一篇被CVPR 2025接收的论文AdaCM2,该研究提出首个支持超长视频理解的跨模态记忆压缩框架。通过观察视频与文本交互过程中的帧内注意力稀疏性和层间语义冗余性,提出了逐帧回归式建模、跨模态注意力打分和分层压缩机制等关键技术点,显著提高模型性能并降低内存消耗。
CVPR 2025 Tutorial探讨视频生成作为世界模型的潜力,涵盖学术界与产业界的最新研究。
本文介绍了一篇CVPR 2025 Highlight论文《CrossFlow》及其相关工作,该研究提出了一个新的跨模态生成框架,并在多个任务上取得了媲美甚至超越最优算法的性能。
腾讯AI Lab和清华大学提出的新模型StdGEN能够在3分钟内生成具有精细细节的可分拆3D角色,质量超过现有方法。StdGEN使用语义感知的大规模重建模型从多视角图像中联合重建几何、颜色和语义信息,并通过迭代优化提高质量。
Uni-Renderer团队在CVPR 2025上提出了一种双流扩散框架,实现了渲染和逆渲染的统一。通过改进的timestep调度策略、材质编辑和重光照功能等技术,该模型在性能方面达到了新SOTA水平,并且在合成数据集上的表现优于现有方法。
Meta AI华人团队联合大牛发布论文,证明Transformer模型可以不用Normalization层也能达到甚至超越现有性能。核心秘密是Dynamic Tanh (DyT)函数,相比传统方法,DyT简单有效,性能不输且速度快、成本低。
Transformer模型可能迎来新变化。一篇最新论文提出无需归一化的Transformer模型能够达到甚至超过带有归一化层的性能,通过动态双曲正切函数(DyT)替代传统归一化层,有望进一步改进AI模型性能。