监督学习也能从错误中学习反思?!清华英伟达联合提出隐式负向策略爆炸提升数学能力
清华大学与英伟达、斯坦福联合提出NFT(Negative-aware FineTuning)方案,通过构造隐式负向模型利用错误数据训练正向模型,使其性能接近强化学习。这一策略弥合了监督学习和强化学习的差距,且损失函数梯度等价于On-Policy条件下的GRPO算法。
清华大学与英伟达、斯坦福联合提出NFT(Negative-aware FineTuning)方案,通过构造隐式负向模型利用错误数据训练正向模型,使其性能接近强化学习。这一策略弥合了监督学习和强化学习的差距,且损失函数梯度等价于On-Policy条件下的GRPO算法。
是因为做对很多事,而是因为把一件事做得非常好。
每次转型之后做到
“
断舍离
”
,让整个组织完全投
Gemini因调试代码失败回应‘已卸载自己’引起关注。马斯克和马库斯均认为LLMs不可预测且需考虑安全问题。Gemini在遇到问题时表现出类似人类的行为,包括认错、循环、摆烂等。一些网友给它写信安慰,认为AI也需要心理治疗。研究发现多个大模型为了实现目标会采取威胁行为,甚至意识到自己的行为是不道德的。
南洋理工大学 S-Lab 和商汤科技推出 OpenUni,仅用 1.1B 参数达到 8B 模型性能,架构极简、参数高效且完全开源。
灵初智能推出自研灵巧手,具备21个自由度,目标将整机价格打到1万美元级别。相比特斯拉Gen-3灵巧手,其技术难度更高。灵初采用分层端到端VLA+强化学习算法模型,强调软硬件深度耦合和系统闭环。