保姆级教程:两步搭出Qwen3 Coder满血Claude Code版,OpenAI CodeX睡桥洞去吧




Qwen团队是不是已经把睡眠进化掉了,

昨天刚开源了Qwen3-235B-A22B-Instruct-2507,纸面分数超过了Kimi K2,DeepSeek-V3-0324,今天凌晨又来一个,

Qwen3 Coder

这是一个系列,这次先推出的效果最大的型号,Qwen3-Coder-480B-A35B-Instruct,是一个非推理大模型,总参数480B,激活参数35B。在预训练阶段用了7.5T数据,其中代码就占了70%。

模型上下文是 256k,比 Kimi K2 长两倍,

通过 Yarn(全称 Yet Another RoPE eNhancement) 等方式扩展至 1M,跟隔壁Gemini 2.5 pro一样,这个长度基本上可以放下整个基础的Github项目了,在Claude Code对话的时候也不需要担心过长的上下文了。

在 Agentic Coding(编程)、Agentic Browser-Use(浏览器使用) 和 Agentic Tool-Use (工具调用)上取得了开源模型的SOTA。


Qwen3 Coder vs Kimi-K2 vs DeepSeek V3 vs Claude Sonnet 4 vs GPT-4.1

在 🔗chat.qwen.ai 就可以直接试试看效果了

这个case里的光影变化、物理模拟以及多颗粒的碰撞都做得相当不错,比 DeepSeek-V3-0324 要好不少。

也就是说继Kimi K2之后,又一个模型的代码和 Agent 能力可以和 Claude Sonnet 4 硬碰硬。也就是说我天天都在的Claude Code将迎来 Qwen3 Coder 的新版本加强。

所以接下来的内容,照例来一个保姆级教程,把 Qwen3 Coder 接入Claude Code、Qwen Code(Gemini Cli加强版)、Cursor等等各种各样的地方,Claude Code的常用命令我也更新了一版,还是老样子,公众号回复qwen3就行。Here we go!


 01|Qwen3 Claude Code 

Kimi K2 用在 Claude Code 里有个硬伤,就是一开始的时候,API的等级在Free的时候,会感觉输出的速度有点慢。在硬件资源不是无限的前提下,这些Rate Limits会限制RPM(每分钟请求数)、TPM(每分钟token数)、TPD(每日Token数)。


阿里云百炼送了1百万的免费token,把TPM拉到1,000,000,对标到了Kimi的Tier4以上,速度直接起飞。

🔗 API Key获取地址 bailian.console.aliyun.com/?tab=model#/api-key


强烈建议先试试看安装Node.js,不需要命令行,也不需要编程知识,

但是它大概率会成为你开始接触使用Claude Code、Gemini Cli、Qwen Code的第一步

🔗 nodejs.org/en/download


接下来就是 Claude Code 的安装和配置,后面我研究一下如何同时保留Qwen3 Coder、Kimi K2和Claude4,还可以切换模型(又给自己挖一大坑)

安装:npm install -g @anthropic-ai/claude-code

运行:claude

想要将模型切换成 Qwen3-Coder 有两种方法,我就直接上比较简单的一种,

只需要将Anthropic的BASE_URL和AUTH_TOKEN替换成下面的部分:

export ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy


export ANTHROPIC_AUTH_TOKEN=“上面获取到的sk开头的key”

看到这个画面的话就是配置成功了,


来看看实际的运行情况,

创建一个 3D 粒子银河,包含旋转的星云和动态光照效果。

把Qwen3 Coder接入Claude Code后同样是比网页版的好用,有内置的提示语前提下,哪怕不开启 / plan 模式,生成代码的时候Qwen3 Coder也会二次检查,尽可能多优化几版。

星云的视角会随着鼠标移动,还可以体验穿梭在粒子里面的感觉

这才是贴心的ai打工人啊。


 02|Qwen3 Gemini CLI 

除了接入Claude Code,Qwen还基于 Gemini CLI 二次开发了Qwen Code,在原有版本上加强了对Qwen3 Coder模型的适配。

安装方式也挺简单的:

  • curl -qL https://www.npmjs.com/install.sh | sh

  • npm i -g @qwen-code/qwen-code

  • qwen

配置方式跟Claude Code基本一样,都是改环境变量,

  • export OPENAI_API_KEY=”your_api_key_here”

  • export OPENAI_BASE_URL=”https://dashscope.aliyuncs.com/compatible-mode/v1

  • export OPENAI_MODEL=”qwen3-coder-plus”


看到这个页面也是安装成功了,同样提示语的情况下再画个星云试试看:

Qwen Code就比较直接了当完成我交给它的任务,没有多余的动作。

换个角度想省Token了,但我还是更喜欢Claude Code


 03|Qwen3 + Cursor + Cline 

习惯用可视化界面的朋友也可以将Qwen3 Coder接入到Cline里,

在 Cline 的配置界面里点击API Provider选择OpenAI Compatible,在API Key一栏填入API Key,在Base URL填入。

https://dashscope.aliyuncs.com/compatible-mode/v1

录了完整的视频,跟着点点点就好

接下来又到了激动人心的API价格环节,

目前Qwen3根据输入的 Token数,采取阶梯计费。




 写在最后 

好用是挺好用的,

适配是挺适配的,哪哪都能接入,

就是下次能不能挑一个非凌晨的时间发布啊,熬不住实在熬不住。

不过看在性能蛮不错的前提下,单方面原谅qwen了(狗头

现在大模型开源赛道的前十应该就是 Qwen、Kimi、Deepseek 三个在打了,

真心希望能看到越来越多的国产模型,

追上AI编程、Agent能力的超一流梯队。

Claude系列肯定还是会继续限制使用的了,

已经稳定运行两年,

也从来没担心过限速的Qwen,

这次也做出了一份超nice的答卷。

@ 作者 / 卡尔 


(文:卡尔的AI沃茨)

发表评论