迈向ASI的一小步?MIT科研小队提出SEAL框架,让大语言模型学会自适应

MIT团队提出SEAL框架,通过生成自身微调数据和更新指令实现大语言模型自我适应。在知识整合和小样本学习任务中表现突出,但存在灾难性遗忘问题。未来有望扩展至预训练、持续学习及智能体模型领域。

“AI相机”如何成为全模态超级入口?百度下了一步妙棋

在百度AI Day开放日上,百度展示了通过文库、网盘等应用构建全模态输入处理输出的完整交付AI能力,发布了首个‘拍存管一体’AI相机,并分享了内容操作系统和GenFlow超能搭子技术优势。

灵活性和速度接近人类!Figure机器人进厂打工,内置Helix模型升级实现超强可扩展性

有‘美版宇树’之称的Figure机器人公司展示了其02型人形机器人在物流领域的操作。改进后,该模型在物流处理上的平均处理时间从约6.84秒缩短至4.31秒,吞吐量提升了58%,条形码识别成功率也有所提高。尽管有人提出质疑,认为工业场景下人形机器人可能存在效率低下和高成本问题,但其仍被视为具有潜在价值的方向。

罕见合著!谷歌、Meta、英伟达团队联手发文,揭秘语言模型 “记忆” 能力

一篇新论文揭示了语言模型的记忆能力,并提出了新的量化指标用于衡量这种能力。研究表明,Transformer模型每个参数大约可存储3.5到4比特信息,模型的“记忆”与其泛化能力有关,理解这一点有助于开发更安全、可靠的大规模AI系统。