国产LLM大爆发的一周,Hugging Face热榜被承包了!

这一周是国产开源LLM集中大爆发的一周:GLM-4.5、Qwen3的5连发、Step3等等,接连发布,PaperAgent专题梳理盘点:

具备强大的视觉感知和复杂推理能力

一、GLM-4.5

GLM-4.5发布,这是新一代开源SOTA模型,专为智能体应用打造,采用混合专家架构,总参数量3550亿,激活参数320亿,具备思考和非思考两种模式,综合能力在推理、代码、Agentic智能体领域达到开源最佳水平,

API调用价格低至输入0.8元/百万tokens、输出2元/百万tokens,高速版生成速度可达100tokens/秒,已在Hugging Face和ModelScope开源,支持全栈开发和工具调用,兼容主流代码智能体框架。

https://hf-mirror.com/zai-org

二、Qwen3的5连发

  • 7.22   Qwen3模型升级为Qwen3-235B-A22B-Instruct-2507版本,显著提升了通用能力、多语言知识覆盖、用户偏好契合能力及长文本理解能力,并在魔搭社区和HuggingFace开源更新。

  • 7.23 Qwen3-Coder发布,这是480B参数激活35B参数的MoE代码模型,支持256K上下文扩展至1M,具备卓越的代码和Agent能力,在开源模型中表现优异,同时推出Qwen Code命令行工具,可与Claude Code、Cline等结合使用,支持通过API调用,未来还将探索更多尺寸和自改进能力。

  • 7.25  Qwen3-235B-A22B-Thinking-2507推理模型正式推出,其在编程、数学等核心能力及知识、创意写作、人类偏好对齐、多语言能力等通用能力上实现飞跃,支持256K长文本理解,已在魔搭社区、Hugging Face开源并采用Apache2.0协议,可免费商用。

  • 7.30  Qwen3-30B-A3B模型更新为Qwen3-30B-A3B-Instruct-2507和Qwen3-30B-A3B-Thinking-2507,前者非思考模式下性能媲美顶尖闭源模型,通用能力、多语言知识覆盖、用户偏好对齐及长文本理解能力大幅提升;后者推理能力显著增强,数学、代码、知识水平、通用能力均超越前代,支持256K原生上下文(可扩展至1M),已在魔搭社区和Hugging Face开源。

  • 8.1  Qwen3-Coder-Flash(Qwen3-Coder-30B-A3B-Instruct)发布,这是“甜品级”编程模型,拥有超强Agent能力,支持256K原生上下文(可扩展至1M),适配多平台,已在魔搭社区和Hugging Face开源,可自由部署。

https://hf-mirror.com/Qwen/models

三、阶跃星辰Step3

阶跃星辰Step 3正式开源,这是一个总参数量321B、激活参数量38B的多模态推理模型,采用MoE架构,,通过MFA和AFD优化显著提升推理效率,支持跨硬件部署,已在Github、Hugging Face和魔搭ModelScope开源,API上线开放平台,限时折扣中。

https://hf-mirror.com/stepfun-ai/step3

四、混元3D大模型

腾讯发布混元3D世界模型1.0(HunyuanWorld-1),这是首个支持物理仿真的开源3D世界生成系统,可依据文本或图像输入生成沉浸式、可交互的3D场景,具备360°沉浸体验、工业级兼容性和原子级交互三大优势,支持“文生世界”和“图生世界”两种生成方式,应用于VR、游戏开发、物体编辑和物理仿真等领域。

https://hf-mirror.com/tencent/HunyuanWorld-1https://3d-models.hunyuan.tencent.com/world/体验地址:https://3d.hunyuan.tencent.com/sceneTo3D

(文:PaperAgent)

发表评论