PaperWeekly
浙大×小红书发布MT-R1-Zero:强化学习重塑机器翻译,7B小模型媲美GPT-4o
MT-R1-Zero首次将R1-Zero范式扩展到机器翻译领域,通过规则-度量混合奖励机制实现无需监督微调的端到端强化学习优化。该方法在多项指标上超越了现有模型。
科研速递 TPAMI 2025:深度神经网络模型对抗攻击与防御平台 A³D开源发布
该研究提出了一种自动对抗攻击与防御(Auto Adversarial Attack and Defense, A³D)平台,通过自动机器学习技术优化深度神经网络架构和对抗攻击方案,提升模型鲁棒性和安全性。平台支持多种鲁棒性评估方式,并能协同进化以提高整体性能。
又一篇CCF-A!强化学习+多目标优化,吊打传统方法!
文章摘要:顶会论文探讨了强化学习与多目标优化融合提升AI决策能力的技术。港科大和MIT团队通过不同方法在自动驾驶及机器人控制中实现安全性和能效的双重提高;阿里云技术则优化金融交易系统的风险收益平衡,这些成果重塑智能决策边界。
3710亿数学Tokens!全球最大开源数学数据集MegaMath震撼发布,碾压DeepSeek-Math
指标。
近日,LLM360 推出了
MegaMath:全球目前最大的开源数学推理预训练数据集
,共计
ICLR 2025 扩散模型奖励微调新突破!Nabla-GFlowNet让多样性与效率兼得
本文介绍了一种基于生成流网络的扩散模型奖励微调方法Nabla-GFlowNet,该方法能够在快速收敛的同时保持生成样本的多样性和先验特性。通过在Stable Diffusion上实验验证了其有效性。