强化学习之父:LLM主导只是暂时,扩展计算才是正解
新晋图灵奖得主Richard Sutton预测大模型主导是暂时的,未来五年甚至十年内AI和强化学习将转向通过Agent与世界的第一人称交互获取‘体验数据’的学习。他强调AI需要新的数据来源,并且要随着增强而改进。他认为真正的突破还是来自规模计算。
新晋图灵奖得主Richard Sutton预测大模型主导是暂时的,未来五年甚至十年内AI和强化学习将转向通过Agent与世界的第一人称交互获取‘体验数据’的学习。他强调AI需要新的数据来源,并且要随着增强而改进。他认为真正的突破还是来自规模计算。
Happy-LLM教程在GitHub上一周内收获2.3k星,成为热门大模型学习资源。该教程从基础到手搓LLama2、RAG和Agent,由Datawhale成员编写并开源。
微软推出的Playwright MCP项目通过MCP协议实现了大模型与浏览器自动化交互。支持多种主流浏览器,并提供丰富的交互功能,如点击、拖动、输入文本等,广泛适用于自动化测试、网页自动化操作以及与大语言模型集成等多种场景。
本文提出了一种全新的隐式知识提取攻击IKEA方法,通过自然、常规查询引导RAG系统暴露其内部知识库中的私有信息,实验证明其具有高效率和成功率。
本文提出ZeroSearch框架,无需真实搜索引擎即可激活大语言模型搜索能力。通过轻量级监督微调将LM转为检索模块,并采用课程学习逐步降低文档质量来激发推理能力,显著降低训练成本和提高性能。