学术
ICML 2025 M+框架来了,增加LLM隐空间记忆,不再受上下文窗口限制
本文提出了一种新的长期隐空间记忆扩展框架M+,显著提升了MemoryLLM的有效记忆跨度至160k tokens以上。该研究由Yu Wang和Zexue He完成,通讯作者来自加州大学圣地亚哥分校。
内部爆料:Alexandr Wang上任第一把火,Meta大模型闭源
Meta内部关于AI发展方向的讨论可能转向闭源路线,公司正在考虑放弃其最强开源AI模型Behemoth。这一转变将对Meta的战略和业界产生重大影响。