迈向ASI的一小步?MIT科研小队提出SEAL框架,让大语言模型学会自适应
MIT团队提出SEAL框架,通过生成自身微调数据和更新指令实现大语言模型自我适应。在知识整合和小样本学习任务中表现突出,但存在灾难性遗忘问题。未来有望扩展至预训练、持续学习及智能体模型领域。
MIT团队提出SEAL框架,通过生成自身微调数据和更新指令实现大语言模型自我适应。在知识整合和小样本学习任务中表现突出,但存在灾难性遗忘问题。未来有望扩展至预训练、持续学习及智能体模型领域。
Meta正敲定与Scale AI的投资协议,并亲自组建新团队推动AI商业化。Yann LeCun发布了最新世界模型V-JEPA 2,强调其在视频理解与规划能力上的优势。
在百度AI Day开放日上,百度展示了通过文库、网盘等应用构建全模态输入处理输出的完整交付AI能力,发布了首个‘拍存管一体’AI相机,并分享了内容操作系统和GenFlow超能搭子技术优势。
有‘美版宇树’之称的Figure机器人公司展示了其02型人形机器人在物流领域的操作。改进后,该模型在物流处理上的平均处理时间从约6.84秒缩短至4.31秒,吞吐量提升了58%,条形码识别成功率也有所提高。尽管有人提出质疑,认为工业场景下人形机器人可能存在效率低下和高成本问题,但其仍被视为具有潜在价值的方向。
OpenAI发布新升级功能支持企业用户通过连接器访问更多内部资源并利用实时上下文信息。这些功能包括ChatGPT接入GitHub、Outlook等平台,以及推出MCP协议和记录模式会议转录服务。
一篇新论文揭示了语言模型的记忆能力,并提出了新的量化指标用于衡量这种能力。研究表明,Transformer模型每个参数大约可存储3.5到4比特信息,模型的“记忆”与其泛化能力有关,理解这一点有助于开发更安全、可靠的大规模AI系统。
小米大模型Core团队推出多模态开源模型MiMo-VL-7B系列,该模型在视觉理解和推理任务中表现出色,并在多个数学竞赛中超越了Qwen2.5-VL-7B和DeepSeek等同级别模型。