国产开源LLM大爆发的一周:腾讯、百度、华为,冲~
百度文心4.5系列开源10款混合专家模型,包含MoE和稠密参数模型;ERNIE-4.5-300B-A47B-Base在28个基准测试中超越DeepSeek-V3-671B-A37B-Base。腾讯Hunyuan-A13B语言模型采用混合推理,支持超长上下文理解;盘古Pro MoE模型使用分组混合专家架构,参数量高达72B、激活参数量16B。
百度文心4.5系列开源10款混合专家模型,包含MoE和稠密参数模型;ERNIE-4.5-300B-A47B-Base在28个基准测试中超越DeepSeek-V3-671B-A37B-Base。腾讯Hunyuan-A13B语言模型采用混合推理,支持超长上下文理解;盘古Pro MoE模型使用分组混合专家架构,参数量高达72B、激活参数量16B。