DeepSeek R2没来,Kimi K2来了,VLLM,SGLang首发支持

受到deepseek的刺激和启发,杨植麟想通了,走上了开源的路线。

Moonshot AI昨日正式发布Kimi K2大语言模型,采用混合专家(MoE)架构,总参数量达1万亿,激活参数32B,支持128K上下文长度。该模型在代码生成、Agent任务和数学推理等专业领域展现出领先性能,并在多个基准测试中创造了开源模型的新SOTA记录。

核心技术创新

  • MuonClip优化器

采用创新的MuonClip技术替代传统Adam优化器,通过qk-clip机制控制注意力logits规模,在15.5T token训练过程中保持零损失峰值,解决了大规模模型训练稳定性问题。

  • 大规模Agent数据合成

构建覆盖数百领域、数千工具的合成pipeline,通过LLM评估筛选高质量样本,显著提升了模型的工具调用能力。

  • 通用强化学习框架

引入自我评价机制(self-judging),在可验证任务(代码/数学)和不可验证任务间建立奖励关联,增强模型泛化能力。

性能表现

在SWE Bench Verified、Tau2、AceBench等基准测试中,Kimi K2表现突出:

  • SWE Bench Verified单次尝试准确率65.8%
  • Tau2零售场景平均得分70.6
  • LiveCodeBench v6 Pass@1达53.7%

开源与部署

本次发布包含两个版本:

  • Kimi-K2-Base:基础预训练模型,适合科研与定制场景
  • Kimi-K2-Instruct:通用指令微调版本,优化问答与Agent任务

模型采用修改版MIT协议开源,vLLM、SGlang等推理引擎首发支持部署。目前已同步上线Web端、App和API服务。

公众号回复“进群”入群讨论。

(文:AI工程化)

发表评论