人类打辩论不如GPT-4?!Nature子刊:900人实战演练,AI胜率64.4%,还更会说服人
研究发现,GPT-4提前知晓对手个人信息的情况下,在辩论中胜率高达64.4%,且说服效果提升81.2%。研究还表明低、中强度话题更易被GPT-4影响,而人类则重情感互动。
研究发现,GPT-4提前知晓对手个人信息的情况下,在辩论中胜率高达64.4%,且说服效果提升81.2%。研究还表明低、中强度话题更易被GPT-4影响,而人类则重情感互动。
论文提出MMaDA,首个系统性探索扩散架构的多模态基础模型,实现文本推理、多模态理解与图像生成的统一建模。该模型在多任务协同上表现出色,并通过混合长链思维微调和统一策略梯度优化提升性能。
大模型竞技场存在系统问题,包括厂商私下测试多个模型版本、数据访问不平等和排名变化快速。研究团队指出,这可能导致排行榜结果失真,并建议改进策略以提高其可信度。
DeepMind专家Vlad Feinberg在普林斯顿的演讲中讨论了模型规模扩展法则的历史、优化策略及未来研究方向,强调小模型客户需求、推理感知扩展法则,并建议开发硬件专用内核和改进量化技术。
谷歌Gemini 2.5 Pro在模型训练和推理优化方面取得突破,Vlad Feinberg揭秘其核心技术。通过经典扩展定律、推理优化扩展定律以及知识蒸馏技术,谷歌找到了最优解,在资源有限的情况下实现了性能提升。
ICLR 2025杰岀论文奖揭晓!3篇杰出论文涵盖安全对齐、语言模型学习动态和编辑等方面的研究成果,强调了当前大型语言模型存在的问题及潜在解决方案。
普林斯顿大学和华沙理工的研究表明,将对比 RL 扩展到1000层可以显著提高自监督强化学习的性能,在各种机器人任务中可实现50倍以上的提升。
腾讯发布首个混合Transformer-Mamba MoE架构的超大模型Hunyuan-TurboS,其在数学、推理等关键benchmark上超越或持平GPT-4o-0806、DeepSeek-V3。模型成本降低7倍。