GPT-5刷屏吊胃口之际,英伟达发出暴论:小型语言模型才是未来

英伟达新论文指出,小型语言模型(SLM)更适合AI智能体,无需大型模型完成大部分任务。SLM参数量低于100亿,部署成本低、运行速度快、效果同样出色。英伟达研究发现多数AI智能体任务可由4o-mini级别的SLM胜任。

Anthropic CEO:模型可在一亿上下文窗口中学习,且不改变权重,未来AI将每月10万美元

Anthropic CEO预测几年内将出现月费10万美元的AI模型,支持1亿词上下文窗口。Google Research论文解释了如何实现这一目标:通过「临时便签」机制在不改变权重的情况下学习超长上下文。