在线教程丨Qwen3狂揽近20k star,网友实测:比Llama更快解决更难问题

作者:李宝珠 xixi

编辑:椰椰 yudi

转载请联系本公众号获得授权,并标明来源


HyperAI超神经官网的教程板块已经上线了「使用 vLLM+Open-webUI 部署 Qwen3-30B-A3B」,一键部署即可快速体验 demo。


4 月 29 日凌晨,Qwen3 模型「家族」终于正式亮相,共 8 款混合推理模型全部开源,仅仅一天的时间便在 GitHub 斩获近 20k stars,而除了极高的讨论热度外,Qwen3 更是凭借性能的提升与部署成本的下探,一举问鼎开源大模型王座。

* 开源版本包含 2 个 MoE 模型:Qwen3-235B-A22B 和 Qwen3-30B-A3B;6 个 Dense 模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B。


根据官方发布的数据,旗舰模型 Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,表现出与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 相媲美的能力。值得一提的是,Qwen3-30B-A3B 的激活参数数量仅为 QwQ-32B 的 10%,但表现更胜一筹,甚至像 Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。



面对性能表现一举超越 OpenAI-o1 与 DeepSeek-R1 两大顶流的 Qwen3,全球开发者跃跃欲试,不少已经发布了一手实测评价,可谓是「好评如潮」。


*图源:X 用户 Hasan Toor*


X 用户 Jafar Najafov 对比了 Qwen3 与相同模型参数量的 Llama

Qwen3 能更快地解决更难的问题


闲言少叙,为了让更多开发者能够便捷地体验 Qwen3 的超强性能HyperAI超神经官网的教程板块已经上线了「使用 vLLM+Open-webUI 部署 Qwen3-30B-A3B」,一键部署即可快速体验 demo。


此外,我们还为读者准备了惊喜算力资源福利,使用邀请码「Qwen3-30B」注册即可获得 2 小时双卡 A6000 使用时长(资源有效期 1 个月),数量有限,不要错过!


 教程地址:

https://go.hyper.ai/mxxkN


没有抢到邀请码?


HyperAI超神经还为新用户准备了 4 小时 RTX 4090 算力福利,同时也提供了使用 RTX 4090 启动其他 Qwen 3 系列模型的一键部署教程。HyperAI超神经官网上线了「vLLM+Open-webUI 部署 Qwen3 系列模型」,该项目提供了 4 种型号的模型:


* Qwen3-8B(默认使用)

* Qwen3-4B

* Qwen3-1.7B

* Qwen3-0.6B


HyperAI超神经专属邀请链接(直接复制到浏览器打开):https://go.hyper.ai/oaTGv


 教程地址:

https://go.hyper.ai/qRLDz


Demo 运行


1. 进入 hyper.ai 首页后,点击「教程」板块,进入该页面后,选择「使用 vLLM+Open-webUI 部署 Qwen3-30B-A3B」,点击「在线运行此教程」。




2. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。



3. 选择「NVIDIA RTX A6000-2」以及「vllm」镜像。OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!


HyperAI超神经专属邀请链接(直接复制到浏览器打开):

https://openbayes.com/console/signup?r=Ada0322_NR0n




4. 等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,打开「端口映射」下的访问地址,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。




效果展示

五一假期马上到了,输入 prompt 「帮我做一个五一去北京的旅游攻略」。



可以看到它制定了详细的行程。



以上就是 HyperAI超神经本期为大家推荐的教程,快来上手亲自体验吧!


 教程地址 

https://go.hyper.ai/mxxkN


同时也欢迎小伙伴们将优质的开源项目推荐给我们,

(文:HyperAI超神经)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往