QwQ-32B
打破思维链推理瓶颈!“软推理”让大模型学会人类抽象能力,token使用量还更少了
研究提出Soft Thinking方法,让模型在连续的概念空间中进行“软推理”,打破基于离散token的推理瓶颈。相比标准CoT,最高提升Pass@1平均准确率2.48%,减少token使用量22.4%。
完全离线的本地AI助手:Sidekick,本地运行、数据安全、多功能一体!
一款名为Sidekick的开源AI助手可以在Mac上完全离线运行,确保数据安全和隐私。它支持知识检索、代码解释、图像生成等功能,适合本地知识管理、代码开发、论文写作等场景。
谷歌推最强单加速模型Gemma 3,PK QwQ-32B 5道题仅对1个!
谷歌发布Gemara 3全新开源模型,性能领先。对比阿里开源推理模型QwQ-32B,Gemma 3仅答对1题;而QwQ-32B全部回答正确。
通义App全新升级:你的AI助手变身邻家女孩,智能又贴心!
新版通义App升级后不仅功能强大,还融入最新推理模型千问QwQ-32B,界面温暖、交互贴心,新增实时记录和拍照讲题等功能。它不再是冷冰冰的工具,而是成为有温度的人工智能伙伴,未来或将拓展到更广泛的生态应用。
在线教程 OpenManus 与 QwQ-32B 强强联合,推理过程全透明
HyperAI超神经上线了OpenManus + QwQ-32B 实现 AI Agent教程,并为新用户提供了1小时4卡RTX A6000免费使用时长的惊喜福利。
HuggingFace上的热门开源模型,一半都来自中国了
HuggingFace热门榜单显示中国大模型超过50%。DeepSeekR1和Qwen等模型因性能、实用性和稳定性提升而受欢迎,Apache 2.0/MIT许可协议提供法律确定性。开发者更偏好开源深度更高的中国模型,如Qwen系列支持多种参数规格及全面数据集。中国大模型已在OpenAI的Llama3之上或在某些任务上超越,其在部署门槛和性能方面均表现优异。
360 和阿里同时开源 32B 模型,性能比肩 DeepSeek R1
文章介绍了Qwen团队和360智脑在推理模型上的进展,QwQ-32B与Light-R1-32B在数学评测领域表现出色,并且Light-R1-32B为零复现了长思维链能力。
重磅!QwQ-32B 本地部署全攻略:用 Ollama 一键运行,轻松上手!
通过Ollama在本地安装、设置并运行QwQ-32B模型,学习如何使用Gradio创建一个逻辑推理助手。QwQ-32B具有高效运行和隐私保护等优势。