一张图,穿梭任何场景!AniCrafter开源登场,让角色动画真正做到“无缝生成”
AniCrafter 通过引入3DGS Avatar + 背景视频作为条件控制视频扩散模型,实现任意角色在任意场景下的动画化任务。项目和代码链接已提供。
AniCrafter 通过引入3DGS Avatar + 背景视频作为条件控制视频扩散模型,实现任意角色在任意场景下的动画化任务。项目和代码链接已提供。
Mira Murati 的创业公司 Thinking Machines Lab 成功募集了 20 亿美元的种子轮融资,成为硅谷历史上规模最大的种子轮融资之一。该公司将构建一个包含顶尖人才团队和海量算力的「共生体」。
AI 领域持续快速发展,ACL 2025 将于7月在奥地利维也纳召开。机器之心等机构联合发起 ‘云帆・ACL 2025 AI Talent Meetup’,邀请参与者围绕前沿技术与人才交流展开讨论。
MLNLP社区致力于促进国内外NLP学术与产业发展间的交流合作。文章介绍了一种双层效率优化框架,包括可控计算(L1)和自适应计算(L2),通过大量实验揭示了语言模型在复杂推理任务中的低效性问题,并提出了一系列解决方案以提升其效能。
香港科技大学联合Snap Research提出ThinkDiff方法,仅需少量图文对和数小时训练让扩散模型具备多模态推理与生成能力。