一张图片+ 一条音频,照片开口说话唱歌,多角色、情绪控制都拿捏了。
腾讯混元联合腾讯音乐发布新模型HunyuanVideo-Avatar,支持上传照片和音频生成动态视频。该模型能自动识别场景氛围和情绪,并且可以控制角色的情绪和多角色同框对话,已在多个App中应用。
腾讯混元联合腾讯音乐发布新模型HunyuanVideo-Avatar,支持上传照片和音频生成动态视频。该模型能自动识别场景氛围和情绪,并且可以控制角色的情绪和多角色同框对话,已在多个App中应用。
腾讯混元发布全新图片生成模型Hunyuan Image2.0,具备超快推理速度和超高质量图像生成能力,实现毫秒级出图且保持真实感。该模型可在实时对话中进行输入与输出同步处理,并提供实时绘画板功能辅助创作。
腾讯混元团队发布的HunyuanCustom新工具解决了AI生成视频中角色一致性问题,实现了图像提供身份、文本定义一切的效果。它支持单主角和多主角生成,以及视频局部编辑和音频驱动生成等模式。
腾讯混元团队推出HunyuanCustom框架,支持多模态输入生成主体一致性视频,实现图像、文本、音频和视频等多种条件下的定制化视频内容。该框架在数据构建和系统架构设计上引入多项技术,验证后性能表现超越现有开源模型。
腾讯混元团队发布Hunyuan3D 2.0,一个大规模3D合成系统,包括形状生成和纹理合成组件,支持游戏、设计等领域。
腾讯发布首个混合Transformer-Mamba MoE架构的超大模型Hunyuan-TurboS,其在数学、推理等关键benchmark上超越或持平GPT-4o-0806、DeepSeek-V3。模型成本降低7倍。