腾讯混元A13B用130亿参数达到千亿级效果,Flash Attention作者点赞

腾讯混元团队发布的Hunyuan-A13B模型,仅通过激活130亿参数就展现了与千亿级大模型相抗衡的能力。该模型采用了细粒度MoE架构,在单张中端GPU上运行性能出色,已在腾讯云上线API服务。模型采用了高质量预训练和结构化后训练技术,并且支持多种推理框架。

腾讯混元开源新作!超强的音频驱动数字人生成模型,支持多角色、多风格及口型与表情同步!

腾讯混元与腾讯音乐联合开源的数字人音频驱动模型HunyuanVideo-Avatar,支持单或多角色对话和多种图像风格生成。通过一张人物图片和一段音频(最长14秒),生成高保真语音驱动动画,并引入了三项关键创新。

多模态大模型不会画辅助线?最新评估得分:o3仅25.8%,远低于人类82.3% 清华腾讯斯坦福联合

清华大学等机构联合发布RBench-V,评估大模型的视觉推理能力。结果显示表现最好的模型o3准确率仅为25.8%,远低于人类的82.3%。论文在Reddit机器学习社区引发讨论。