腾讯混元
腾讯混元A13B用130亿参数达到千亿级效果,Flash Attention作者点赞
腾讯混元团队发布的Hunyuan-A13B模型,仅通过激活130亿参数就展现了与千亿级大模型相抗衡的能力。该模型采用了细粒度MoE架构,在单张中端GPU上运行性能出色,已在腾讯云上线API服务。模型采用了高质量预训练和结构化后训练技术,并且支持多种推理框架。
腾讯混元开源首个13B激活MoE大模型:推理提升超2倍,单卡可跑!
首个13B激活参数的MoE大模型 Hunyuan-A13B重磅来袭:总参数80B,效果比肩开源领先模型。腾讯混元宣布该模型已开源,并上线Github和Huggingface等社区。
腾讯开源推理模型!13B参数比肩OpenAI o1,1张GPU就能跑
腾讯混元开源首个混合推理MoE模型Hunyuan-A13B,参数80亿,激活参数13亿,在多个基准测试中超越OpenAI等模型,支持数学、推理和Agent调用能力。
当基础模型成为AI应用的底座,学者称平台竞争转向生态较量
文章介绍了当前大模型厂商通过丰富生态来展示实力的现象,包括基础模型的应用企业数量增加和排名提升等趋势。同时讨论了在AI底座化趋势下,未来可能的竞争形态及对反垄断的挑战。
腾讯混元开源新作!超强的音频驱动数字人生成模型,支持多角色、多风格及口型与表情同步!
腾讯混元与腾讯音乐联合开源的数字人音频驱动模型HunyuanVideo-Avatar,支持单或多角色对话和多种图像风格生成。通过一张人物图片和一段音频(最长14秒),生成高保真语音驱动动画,并引入了三项关键创新。
多模态大模型不会画辅助线?最新评估得分:o3仅25.8%,远低于人类82.3% 清华腾讯斯坦福联合
清华大学等机构联合发布RBench-V,评估大模型的视觉推理能力。结果显示表现最好的模型o3准确率仅为25.8%,远低于人类的82.3%。论文在Reddit机器学习社区引发讨论。
ICML 2025 无需训练!清华团队「一行代码」突破视频生成时长“魔咒”
清华团队发布RIFLEx模型,仅需一行代码即可突破视频生成长度限制至10秒。该模型适用于基于RoPE的各类Video Diffusion Transformer。
手绘草图一键变3D游戏形象!腾讯出手AI游戏视觉设计
腾讯混元发布游戏视觉生成平台Hunyuan-Game,提供一站式AIGC游戏内容生产引擎,涵盖四大图像生成模型和五大视频模型,助力提升游戏美术设计效率。