CogMAEC@ACM MM 2025火热征稿中!探索多模态共情智能的认知密码

本次研讨会聚焦于认知导向的多模态情感计算,旨在推动AI从感知走向理解,共吸引来自全球不同高校的研究者和开发者参与。

推理能力飙升,指令遵循暴跌?MathIF基准揭示大模型“服从性漏洞”

研究揭示越擅长数学推理的模型反而更难完全遵守指令。这项发现强调了AI在处理复杂任务时的’聪明’与’听话’之间的权衡关系,未来有望构建既能深入思考又能严格守规矩的大模型。

导师放养,偷偷发了顶会……

万物皆卷的时代,越来越多的人通过高质量论文来增强竞争力。咕泡科技提供一站式科研辅导服务,包括选题、实验设计验证、创新点设计等环节,助力学生在短时间内提升学术能力,确保论文顺利发表。

自然语言+数值双反馈碾压传统RL!Critique-GRPO给模型“写批注”提效300%

MLNLP社区是国内外知名的人工智能和技术交流平台,旨在促进机器学习和自然语言处理领域内的学术与产业界的交流合作。近日发布的论文探讨了改进语言模型推理能力的方法,并提出了一种名为Critique-GRPO的技术方案。

告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

该项目由北京邮电大学白婷副教授指导,旨在解决大语言模型在长期对话中记忆断裂的问题。MemoryOS 是首个结合操作系统原理与人脑分层机制的大模型记忆管理系统,显著提升了AI的上下文连贯性和个性化记忆能力。

为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

本文研究了语言模型对强化学习中奖励噪声的鲁棒性,即使翻转大部分奖励也能保持高下游任务表现。作者提出了思考模式奖励机制,并展示了其在数学和AI帮助性回复生成任务中的有效性。