腾讯近日正式开源其全新多模态定制视频生成框架——HunyuanCustom,标志着AI视频创作进入更高自由度与精准控制的全新阶段。该框架基于腾讯自研的 HunyuanVideo 打造,主打**“主体一致性”与“多模态灵活输入”**,致力于实现视频内容与输入素材高度匹配的个性化生成。

HunyuanCustom 的核心优势在于其强大的多模态输入能力:支持用户通过文本描述、单图或多图图像、参考音频甚至已有的视频片段作为输入,系统可综合这些信息生成定制化视频。这种跨模态感知能力为内容创作提供了极大的灵活性和表现力。

QQ20250512-094435.png

在视频内容的准确性方面,HunyuanCustom特别强调人物或物体在视频中的身份一致性,有效解决了传统AI视频中“换脸失真”或形象漂移的问题,使得生成结果更真实、统一、可信。

QQ20250512-094446.png

该框架的潜力正在多个行业场景中逐步显现,包括但不限于:

  • 虚拟人物广告:快速生成具备特定形象的AI人物进行商业宣传;

  • 虚拟试穿:帮助用户在线预览不同穿搭效果,提升电商体验;

  • 唱歌头像生成:将照片与音乐融合,打造趣味性与表现力兼具的个性化视频;

  • 智能视频编辑:自动替换视频中的指定人物或对象,提高后期制作效率。

腾讯表示,HunyuanCustom 的开源将显著降低多模态视频创作门槛,为开发者、内容创作者以及各类行业用户提供高质量、高一致性的视频生产能力,进一步拓展AI视频的实用边界。

地址:https://github.com/Tencent/HunyuanCustom