Qwen3发布!超DeepSeek R1登顶开源榜,还带来了跟R1不同配方
阿里巴巴开源新一代通义千问Qwen3系列模型,包含8款不同尺寸。旗舰模型Qwen3 235B采用混合专家(MoE)架构,在多项测评中超越DeepSeek-R1、OpenAI-o1等主流模型。性能提升体现在推理、指令遵循、工具调用、多语言能力等方面。Qwen3全尺寸发布后,社区反响热烈,参数正在“变小”但保持出色表现。
阿里巴巴开源新一代通义千问Qwen3系列模型,包含8款不同尺寸。旗舰模型Qwen3 235B采用混合专家(MoE)架构,在多项测评中超越DeepSeek-R1、OpenAI-o1等主流模型。性能提升体现在推理、指令遵循、工具调用、多语言能力等方面。Qwen3全尺寸发布后,社区反响热烈,参数正在“变小”但保持出色表现。
腾讯发布混元 Turbo S模型,实现首字时延降低44%和吐字速度翻倍,重新定义人机交互即时性标准,揭示中国AI技术路径从’堆参数’到’拼效率’的转向。
OpenAI联合创始人Andrej Karpathy分享了中国开源大模型DeepSeek-v3,仅使用280万小时GPU算力即超越Llama-3。该模型在多种基准测试中表现优异,并采用MLA和MoE等高效策略节省大量计算资源。
华中科技大学提出MoE Jetpack框架,利用密集激活模型权重微调出混合专家(MoE)模型,大幅提升了精度和收敛速度,解决MoE预训练需求高问题。