百度
国产开源LLM大爆发的一周:腾讯、百度、华为,冲~
百度文心4.5系列开源10款混合专家模型,包含MoE和稠密参数模型;ERNIE-4.5-300B-A47B-Base在28个基准测试中超越DeepSeek-V3-671B-A37B-Base。腾讯Hunyuan-A13B语言模型采用混合推理,支持超长上下文理解;盘古Pro MoE模型使用分组混合专家架构,参数量高达72B、激活参数量16B。
赶超DeepSeek、阿里Qwen!百度文心4.5系列模型正式开源,性能出色但领跑有点难
百度正式宣布开源文心4.5系列模型,该系列包含多模态异构MoE预训练、可扩展高效的基础设施以及针对特定模态的后训练技术。模型在多个基准测试中表现优异,覆盖了文本和多模态任务。
刚刚!百度一口气开源了10款模型
百度如期开源文心4.5系列共10款模型,涵盖文本和视觉理解,支持跨模态知识融合。参数从300B到424B不等,性能达到SOTA水平,在多任务测试中表现优异,并采用飞桨框架训练和部署。