大型语言模型的“推理升级”:自适应策略让AI更聪明
MLNLP社区发布了一篇关于提升大型语言模型复杂推理能力的研究论文《MixtureofReasoning》。文章提出一种新的训练框架MoR,使模型能够自主选择和应用多种推理策略,显著提升了模型在多个数据集上的表现。
MLNLP社区发布了一篇关于提升大型语言模型复杂推理能力的研究论文《MixtureofReasoning》。文章提出一种新的训练框架MoR,使模型能够自主选择和应用多种推理策略,显著提升了模型在多个数据集上的表现。
MLNLP社区致力于推动国内外机器学习与自然语言处理领域的学术交流和技术发展。本文提出AI4Research综述工作,涵盖五个方面:科学理解、学术综述、科学发现、学术写作和学术评审。系统性分类方法及新兴研究方向识别,关键应用与丰富资源总结。
论文提出 Deep Video Discovery (DVD),通过将长视频分割成多粒度片段并利用LLM推理能力自主规划工具获取信息来回答问题。在最新的推理模型OpenAI o3帮助下,DVI以74.2%准确率超越现有工作,在LVBench上大幅领先。
百度搜索发布了一篇关于多智能体框架的论文,该框架重新构想了大型语言模型时代的搜索方式,包括主管、规划者、执行者和撰写者的分工协作机制,旨在实现更加灵活高效的信息检索过程。
近期MIT研究发现,使用AI语言模型如ChatGPT可能会降低写作任务的认知负荷,但同时也可能影响记忆、批判性思维和写作技能。该研究通过脑电图记录参与者的大脑活动,并收集反馈数据,揭示了不同组别在写作质量、神经活动以及认知成本方面的差异。