『深度好文』DeepSeek 打醒了 Meta:Llama 4 的最后一搏!

大模型的 “卷”,是 “肉眼可见的卷”。

这一次是 Meta。

它甚至,破天荒的,选择了在周六这个休息日发布新模型。

面对各个强大竞争对手的“来势汹汹”,很明显,Meta 急了。

DeepSeek 在年初的强势崛起,让全球侧目,也撕下了 Meta 长期以来引以为傲的最后一块遮羞布:“最强开源模型”。

更不用提后来更加强大的闭源模型:OpenAI 的 o3GPT-4.5;Anthropic 的 Claude 3.7 Sonnet、马斯克 xAI 的 Grok 3 以及 谷歌的 Gemini 2.5 Pro

大模型排行榜上早已不见 Meta Llama 模型的身影。

而 Meta 旗下最顶级的模型 Llama 3.1 405B,它的发布已经是去年 7 月 23 日的事情了。

相比以往“不痛不痒”的轻量发布,这次 Meta 的动作颇有“不成功 便成仁”的意味。

三款模型,两个已发布并开源,一个预热,表面上是 Meta 给用户、市场、投资人这大半年的答卷,背后是 Meta 重夺“最强开源模型”的明确野心。

这一次,Llama 4 系列真的进入新阶段了吗?



01 三款模型,一个生态的试探

Llama 4 系列包含三个不同参数的模型。

  • Llama 4 Scout:1090 亿参数 + 170 亿活跃参数 + 16 专家,轻量级、小参数通用模型,主打长上下文 + 多模态支持。
  • Llama 4 Maverick:4000 亿参数 + 170 亿活跃参数 + 128 专家,定位旗舰通用模型,主打推理、代码、图像理解。
  • Llama 4 Behemoth:2 万亿参数 + 2880 亿活跃参数 + 16 专家,还在训练中,被 Meta 自称为“史上最强开源教师模型”。

整理成表格,方便小可爱们对比。

模型
活跃参数
专家数
总参数量
特点
场景定位
可用性
Llama 4 Scout
170亿
16
1090亿
支持1000万上下文长度,轻量快速,长文推理、图像定位极强
边缘部署、多模态文档处理
✅ 已开放下载(llama.com / Hugging Face)
Llama 4 Maverick
170亿
128
4000亿
性能与多模态理解俱佳,图文兼容,推理能力超越GPT-4o
通用AI、企业助手、聊天机器人
✅ 已开放下载(llama.com / Hugging Face)
Llama 4 Behemoth
2880亿
16
近2万亿
教师模型,性能极致,支持更复杂STEM任务
蒸馏、科研、前沿AI能力拓展
🔒 训练中,暂未开放下载

其实从 Meta 对 Llama 4 系列模型的命名上就能看出些许端倪。

Scout 是“探索者”,Maverick 是“特立独行者”,Behemoth 则是“巨兽”。

总结来看,Meta 想讲的并不只是“我们有三款模型”,而是:我们正在构建一个生态闭环。


02 Scout:参数不大,上下文很大

先说参数量最小的 Llama 4 Scout

这个模型参数量不算吓人,170 亿活跃参数,只用 1 张 H100 就能跑起来。

但它的上下文长度,直接拉到了 1000 万 tokens。

是的,你没看错,1000万。从 Llama 3 的 128K,一步跳到 Llama 4 Scout 的 1000 万,几乎等于把“上下文窗口”这条赛道提前打穿了。

不出意外地,这是目前全世界所有 AI 模型里,上下文最长的模型,比谷歌 Gemini 的 200 万 tokens 还要强。

当然,1000 万这个数字听起来虽然炫酷,但它到底意味着什么?

简单讲,你可以直接把全套《三体》、一堆合同、十几个 PRD + 代码全部塞进 Scout 的大脑里。

这让它天然适合:

  • 多文档检索 + 总结;
  • 超长代码库的“调试”型推理;
  • 高密度用户行为数据的个性化处理。

03 Maverick:对标 GPT-4o、DeepSeek-V3

Meta 给 Llama 4 Maverick 的定位很清晰,就是:面向对话场景的旗舰多模态模型。

Maverick 的技术参数和前面的 Scout 相同,也是 170 亿活跃参数,但专家数量翻了几倍,达到 128 个,总参数量 4000亿。作为对比,DeepSeek-V3 的参数量是 6710 亿,活跃参数为 370 亿。

不难看出,相比 Scout 的 “卷长”,Maverick 更强调 “卷强”。

换句话说,它不追求极限的上下文长度,而追求更高的单次推理质量和更好的图文理解。

从 Meta 官方给出的 Llama 4 Maverick 模型基准测试结果来看,它无疑是第一梯队的。

以仅二分之一的活跃参数,Llama 4 Maverick 就取得了超过 DeepSeek-V3 0324 的成绩,并且,多模态上明显“更胜一筹”,因为 DeepSeek 的模型还没有支持多模态类型(如图像、文件)的输入。

新模型发布前先上 LMSYS 大模型竞技场跑一跑分几乎成了一个必然,这次的 Llama 4 也不例外。

而在最新的 LMSYS 排行榜上,Llama 4 Maverick 刚发布就占据了第二名的宝座,仅次于谷歌的 Gemini 2.5 Pro,超越了之前的老牌强者,如 GPT-4oGrok 3 等。

虽然 LMSYS 排行榜的打分和排名带有很强的客观性,但也能从侧面反映一些东西的。

另外,让我们期待一波 Llama 4 在 LiveBench 上的排名。


04 Behemoth:2T 参数的“巨兽”,不是给你用的

Behemoth,发音为 /bɪˈhiː.mɑːθ/(比赫马),是英文中 “巨兽” 的意思。

Behemoth 的存在更像是 Meta 给自己留的一手。

虽然目前尚未开源,只是预宣传,但 Meta 官方已经明确表示:Maverick 和 Scout,都是它蒸馏出来的。

换句话说,它是一个 “教师模型”。

在大模型训练中,教师模型通常指的是一个能力更强、体量更大的模型,用于指导或“传授知识”给较小模型。

这种过程叫做“蒸馏”,本质上是让小模型模仿大模型的思维方式、判断逻辑和回答风格,从而在保持高质量输出的同时,大幅减少推理成本。

一些 Llama 4 Behemoth 值得注意的参数:

  • 活跃参数:2880亿。
  • 总参数量:近 2 万亿。
  • 使用 FP8 精度训练。
  • 每 GPU 实现 390 TFLOPs 计算效率。
  • 数据量:30 万亿 tokens(是 Llama 3 的 2 倍)。

参数量如此庞大的模型,它的成本将会是一个恐怖的数字,你看 OpenAI 的 GPT-4.5 有多贵就知道了。

而这个用“算力”堆出来的模型,也确实值得有这样的基准测试表现:全面超越了 GPT-4.5Claude 3.7 Sonnet 和 Gemini 2.0 Pro



05 Llama 4 哪里用?

Llama 4 Scout 和 Llama 4 Maverick 已完全发布并开源。这意味着你可以像部署 DeepSeek 模型一样在本地部署这两个模型。

Llama 4 Behemoth 则还在训练中,不开放下载。

  • https://www.llama.com/llama-downloads/
  • https://huggingface.co/meta-llama

这里再说几个针对个人用户的使用方案。

首先,Meta 官方不提供任何 API 服务,只能通过其他渠道使用官方的 Llama 4

比如 官网(meta.ai),WhatsApp,Messenger,和 Instagram Direct。但弊端是 Meta 官方并没有明确说明这些官方渠道集成的模型是 Scout 还是 Maverick。

如果想要调用 Llama 4 的 API,那就只有使用第三方 API 服务了。

这里当然首推我们的老伙计 OpenRouter,它已经第一时间上线了 Llama 4 Scout 和 Llama 4 Maverick 的 API,并且,完全免费。



06 结语:是起点,但不是终点

我们当然可以说:Llama 4 是 Meta 有史以来最重磅、最用力的一次模型发布。

无论是模型性能、参数配置、基准测试结果,还是开源的诚意,都展现出一种“全力一搏”的姿态。

然而,不得不承认,Llama 4 的核心路径依然是熟悉的那一套 —— 用参数、数据和算力堆出领先,用蒸馏和 MoE 拉平成本。

创新也有,但不多。

甚至像业界已经完全采纳的推理模型、内置思维链,在这次的 Llama 4 发布中也缺席了。

所以我说,Llama 4 只是一个起点,不是终点。



我是木易,一个专注AI领域的技术产品经理,国内Top2本科+美国Top10 CS硕士。

相信AI是普通人的“外挂”,致力于分享AI全维度知识。这里有最新的AI科普、工具测评、效率秘籍与行业洞察。

欢迎关注“AI信息Gap”,用AI为你的未来加速。



(文:AI信息Gap)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往