模型遗忘不代表记忆抹除!首次系统发现「可逆性遗忘」背后规律

研究人员首次揭示了大模型在机器遗忘过程中的表示结构变化规律,通过构建统一的表示层分析工具箱,系统性地区分可逆性和不可逆遗忘的本质差异。

Transformer八周年!Attention Is All You Need被引破18万封神

新智元报道
编辑:定慧
【新智元导读】
Transformer已满8岁,革命性论文《Attention Is All You Need》被引超18万次,掀起生成式AI革命。
Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。它让人类真正跨入了生成式AI时代。
这篇论文的被引次数已经达到了184376!
尽管当年未获「Attention」,但如今Transformer影响仍在继续。
谷歌开始收回对大模型开放使用的「善意」。
人人都爱Transformer,成为严肃学界乐此不疲的玩梗素材。

5000次风暴,谷歌训出AI预言家!天气预报ChatGPT时刻?

谷歌推出的AI模型在热带气旋路径预测方面刷新SOTA,成为首个超越主流物理模型的AI预测模型。Weather Lab平台提供实时与历史气旋预测,显著提高防灾准备和疏散效率,有助于挽救生命并减少经济损失。