快手旗下可灵AI推出首个“音画同出”模型可灵2.6,能同时生成画面、语音、音效和环境氛围,打通音画世界。该模型提供“文生音画”和“图生音画”两种创作路径,用户可通过一句话或图片快速生成完整视频,提升创作体验。
Runway发布最新视频生成模型Gen-4.5,专为创作者、影视制作人和企业用户设计,即将向所有订阅层级开放。该模型在文本转视频基准测试中以1247分领先,超越谷歌Veo3等竞品,成为当前最强文生视频模型。其卓越性能得益于先进的NVIDIA Hopper与Blackwell GPU平台支持。
可灵AI公司宣布,其O1视频大模型已全量开放。该模型采用多模态视觉语言统一架构,支持文字、图像、视频融合输入,并引入思维链推理,号称全球首个统一多模态视频大模型。它可一次性完成文生视频、图生视频、局部编辑及镜头延展等任务,无需分步操作。
美团LongCat团队发布视频生成模型LongCat-Video,基于DiT架构,能精准重构真实世界动态,支持文生视频、图生视频和视频续写功能。这标志着美团在世界模型领域取得重要进展,该模型是下一代AI核心引擎,助力AI更好地理解和预测现实世界。
VORAvideo连接多AI模型,支持文生视频、图生视频,享Sora 2特惠
130亿参数的文生视频大模型,实现创意与物理准确性的结合
生成具有动态效果的高分辨率视频的文生视频模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
$2
$20
Baidu
128
alibaba-pai
支持多分辨率训练的1.3B参数文生视频模型,具备首尾帧预测功能
支持多分辨率训练的1.3B参数文生视频模型,可预测首尾帧
Skywork
SkyReels V2是一个无限长度电影生成模型,采用自回归扩散强制架构,支持文生视频和图生视频任务,能够生成高质量的长视频内容。
Remade-AI
基于Wan2.1 14B I2V 480p模型训练的LoRA,可为图像主体添加专业级滑轨变焦镜头效果,适用于图像转视频(I2V)和文生视频(T2V)任务。
支持多分辨率训练及首尾帧预测的文生视频模型
基于Wan2.1 14B文生视频基础模型训练的微调模型,专门用于生成动物纪录片风格的视频内容
基于Wan2.1 14B文生视频模型训练的LoRA,可生成皮克斯动画风格的视频
基于Wan2.1 14B文生视频模型训练的LoRA,可生成经典毁灭战士风格的游戏视频
基于Wan2.1 14B文生视频模型训练的LoRA,专门用于生成逼真的海啸场景视频
基于Wan2.1 14B文生视频模型训练的LoRA,专门用于生成逼真的火焰视频效果
rhymes-ai
Allegro是一个开源的高质量文生视频生成模型,能够生成720x1280分辨率、15 FPS的6秒细节视频。
guoyww
AnimateDiff是一种利用现有Stable Diffusion文生图模型创建视频的方法,通过插入运动模块层实现图像帧间的连贯运动。
WenhaoWang
基于Mistral-7B架构微调的文生视频提示词生成模型,输入少量词语即可生成完整提示词
AnimateDiff是一种能够利用现有Stable Diffusion文生图模型创建视频的技术,通过插入运动模块层实现图像帧间的连贯运动。
AnimateDiff是一种能够利用现有Stable Diffusion文生图模型生成视频的技术,通过插入运动模块层实现图像帧间连贯运动。
AnimateDiff是一种能够利用现有Stable Diffusion文生图模型创建视频的方法