泛化能力
机器人视觉控制新范式!ByteDance Research新算法实现通过性能SOTA
ByteDance Research团队提出WMP(World Model-based Perception),通过模拟训练世界模型和策略,实现在多种复杂地形上的出色控制表现。
重磅发现!DeepSeek R1方法成功迁移到视觉领域,多模态AI迎来新突破!
VLM-R1 是一个将 DeepSeek R1 方法应用于视觉语言模型的新开源项目,展示了其在稳定性、泛化能力等方面的优越性能,并提供简单易用的训练流程。
OpenAI:强化学习确实可显著提高LLM性能,DeepSeek R1、Kimi k1.5发现o1的秘密
IOI 上达到了金牌水平,并且在 CodeForces 上获得了与精英级人类相当的得分。
他们是怎
最新!DeepSeek研究员在线爆料:R1训练仅用两到三周,春节期间观察到R1 zero强大进化
春节假期最后一天祝大家蛇年上班快乐。DeepSeek研究员过年都没歇,春节期间透露了DeepSeek R1模型性能持续提升的信息,并对强化学习的潜力表示乐观。Daya Guo解释了R1-Zero模型仍处于早期阶段且具备泛化能力,以及其未来可能的应用方向如形式化证明环境等。
AAAI 2025 SparseViT:参数高效的稀疏化视觉Transformer
四川大学吕建成团队与澳门大学合作提出SparseViT,这是一种针对图像篡改检测的稀疏化视觉Transformer。通过稀疏自注意力机制和可学习的多尺度监督机制,实现了对非语义特征的自适应提取,并在多个基准数据集上展现了卓越性能。