720亿参数!华为首个开源大模型发布,用4000颗昇腾训练的
华为发布了盘古Pro MoE和盘古Embedded 7B两个新模型,并开源了基于昇腾的模型推理技术。盘古Pro MoE在多项基准测试中超越Qwen3-32B等模型;盘古Embedded 7B则具备灵活切换快慢思考的能力。
华为发布了盘古Pro MoE和盘古Embedded 7B两个新模型,并开源了基于昇腾的模型推理技术。盘古Pro MoE在多项基准测试中超越Qwen3-32B等模型;盘古Embedded 7B则具备灵活切换快慢思考的能力。
华为盘古团队在昇腾 NPU 上高效训练了7180亿参数的 Pangu Ultra MoE 混合专家模型,并提出多项优化方案,提升计算资源利用效率,实现30.0%的模型算力利用率。
量子位报道了中科大与华为合作开发的推荐大模型部署方案在国产昇腾NPU上的成功应用。该模型采用了生成式推荐范式,具备扩展性,并在多域、多行为和排序任务中取得了显著成果。