字节跳动Seed团队发布新一代视频创作模型Seedance2.0,采用统一的多模态音视频联合生成架构,推动AI视频生成从“单点突破”迈向“全能协作”的工业级应用阶段。相比1.5版本,新模型在复杂交互与运动场景下的可用率显著提升,通过出色的物理还原能力,攻克了双人花滑、多人竞技等高难度动作生成难题。
字节跳动发布多模态视频生成模型Seedance2.0,性能强大引发关注。但知名博主Tim实测发现,仅凭一张照片,模型就能生成高度逼真的个人视频,引发对AI伦理和肖像隐私的担忧。
字节跳动内测多模态视频生成模型Seedance2.0,整合图像、视频、音频和文本处理能力,提供“导演级”控制精度,显著提升内容创作效率与质量。
游戏科学CEO冯骥高度评价字节跳动Seedance 2.0视频生成模型,认为其代表AI多模态理解的飞跃,将颠覆影视行业,大幅降低一般性视频制作成本。
字节跳动免费AI视频生成器,支持多模态输入创作2K视频
LTX-2 是代多模态 AI 视频生成模型。
Wan 2.5支持原生多模态AV生成,可10秒生成1080p视频,音画同步。
多模态驱动的定制视频生成架构。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
Gjm1234
Wan2.2是基础视频模型的重大升级版本,专注于将有效MoE架构、高效训练策略和多模态融合等创新技术融入视频扩散模型,为视频生成领域带来更强大、更高效的解决方案。
unsloth
Qwen3-VL是迄今为止Qwen系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型采用混合专家(MoE)架构,提供卓越的多模态处理能力。
Qwen3-VL-2B-Instruct是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持以及强大的空间和视频动态理解能力。该模型采用2B参数规模,支持指令交互,适用于多模态AI应用。
Qwen
Qwen3-VL是通义系列最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频理解能力等方面全面升级,具备卓越的多模态交互能力。
Alissonerdx
HuMo是一个统一的、以人为中心的视频生成框架,能够根据文本、图像和音频等多模态输入,生成高质量、细粒度且可控的人类视频。它支持强大的文本提示跟随、一致的主体保留以及同步的音频驱动运动。
VeryAladeen
HuMo是一个以人为中心的视频生成框架,能够利用文本、图像和音频等多模态输入生成高质量、细粒度且可控的人类视频,支持文本提示跟随、主体保留和音频驱动运动同步。
Gemma 3n是谷歌推出的轻量级、最先进的多模态开放模型,基于Gemini技术构建。专为低资源设备设计,支持文本、图像、视频和音频输入,生成文本输出。采用选择性参数激活技术,在4B参数规模下高效运行。
NexaAI
Qwen2.5-Omni-3B-GGUF 是一个端到端的多模态模型,能够感知文本、图像、音频和视频等多种模态信息,同时以流式方式生成文本和自然语音响应。
Mungert
Qwen2.5-Omni-7B是一款功能强大的多模态模型,能够感知文本、图像、音频和视频等多种模态信息,并以流式方式生成文本和自然语音响应。
ggml-org
Qwen2.5-Omni-3B 是一个多模态模型,支持文本、音频和图像输入,但不支持视频输入和音频生成。
Cosmos-Reason1是NVIDIA开发的物理人工智能模型,具备理解物理常识的能力,能通过长链思维推理生成具身决策。该模型支持多模态输入(文本+视频/图像),输出为文本,适用于机器人、自动驾驶等物理AI领域。
zhaode
FastVLM-0.5B-Stage3 是一个高效的多模态语言模型,具备视觉理解和语言处理能力,能够处理长视频并生成结构化输出。
Qwen2.5-Omni 是一个端到端的多模态模型,能够感知文本、图像、音频和视频等多种模态,并以流式方式生成文本和自然语音响应。
Qwen2.5-Omni是一款端到端多模态模型,能够感知包括文本、图像、音频和视频在内的多种模态,同时以流式方式生成文本和自然语音响应。
inclusionAI
轻量级统一多模态模型,高效处理图像、文本、音频和视频等多种模态数据,在语音和图像生成方面表现出色。
Qwen2.5-Omni是一款端到端多模态模型,能够感知文本、图像、音频和视频等多种模态信息,并以流式方式同步生成文本和自然语音响应。
OpenGVLab
VideoChat-R1_7B_caption 是一个基于 Qwen2-VL-7B-Instruct 的多模态视频文本生成模型,专注于视频内容理解和描述生成。
Skywork
SkyCaptioner-V1是专为视频数据生成高质量结构化描述而设计的模型,通过整合专业子专家模型、多模态大语言模型与人工标注,解决了通用描述模型在专业影视细节捕捉上的局限。
VideoChat-R1_7B 是一个基于 Qwen2.5-VL-7B-Instruct 的多模态视频理解模型,能够处理视频和文本输入,生成文本输出。
city96
阿里巴巴PAI发布的14B参数规模的多模态模型,支持文本生成视频任务