字节跳动Seed团队发布新一代视频创作模型Seedance2.0,采用统一的多模态音视频联合生成架构,推动AI视频生成从“单点突破”迈向“全能协作”的工业级应用阶段。相比1.5版本,新模型在复杂交互与运动场景下的可用率显著提升,通过出色的物理还原能力,攻克了双人花滑、多人竞技等高难度动作生成难题。
2026年春节期间,国产AI大模型赛道迎来密集发布潮,字节跳动、智谱、MiniMAX等头部企业相继推出新品,带动资本市场对AI应用板块热情高涨。其中,字节跳动发布的Seedance 2.0视频生成模型尤为瞩目,支持文本和图像输入,可生成长达60秒的多镜头视频,并实现了画质跨越,具备原生音频同步与出色的运镜规划能力。
字节跳动发布多模态视频生成模型Seedance2.0,性能强大引发关注。但知名博主Tim实测发现,仅凭一张照片,模型就能生成高度逼真的个人视频,引发对AI伦理和肖像隐私的担忧。
字节跳动内测多模态视频生成模型Seedance2.0,整合图像、视频、音频和文本处理能力,提供“导演级”控制精度,显著提升内容创作效率与质量。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128