ICML 2025 全局池化+局部保留,CCA-Attention为LLM长文本建模带来突破性进展
的高效上下文建模。在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标
的高效上下文建模。在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标
北京大学等机构提出GAPrompt,一种面向三维视觉预训练模型的几何感知高效微调方法,通过引入点云结构化提示提升下游任务中的几何适应能力。该研究已被人工智能顶会ICML 2025接收,并已开源相关代码与模型。
AI 智能体的本质被揭开了:它们就是世界模型。DeepMind 研究团队在ICML 2025上发布论文,证明任何能够泛化到广泛目标导向任务的智能体必然已经学到了能够模拟其环境的预测模型。
本文介绍了一篇ICML 2025 Spotlight论文,提出自动化失败归因新任务以快速定位多智能体语言模型(LLM)系统的错误。研究构建首个Who&When数据集,并比较了三种方法:All-at-Once、Step-by-Step和Binary Search。实验结果显示当前方法效果有限,准确率较低;但混合策略有一定提升,且现有SOTA模型表现仍不理想。这表明失败归因任务对AI推理与理解能力要求极高。
ICML 2025共录用3260篇论文,录用率为26.9%。评审质量引发热议,审稿人敷衍问题频出。多个案例显示评审存在错误和疏忽,影响了公正性和准确性。
PaperCoder 是一个多智能体LLM系统,能自动实现机器学习论文中的代码。它解决了顶会论文代码共享不足的问题,目前在基准测试中表现优于其他框架,并且77%的原作者对生成的代码表示认可。
PaperCoder 是一个多智能体的 LLM 系统,通过规划、分析和生成三个阶段将机器学习论文转化为可运行的代码库,并在多个会议论文上进行了评估,表现出色且超越现有基线。