2025年哔哩哔哩跨年晚会宣布与千问APP合作,后者成为独家总冠名。晚会将深度融合千问的AI创作能力,在节目呈现和线上互动中引入智能化体验。观众可通过多种AI互动方式参与节目,感受人工智能与文娱结合的新玩法。千问APP同步上线“用AI为新年干杯”主题活动,利用视频生成模型为用户提供创新互动体验。
ClipSketch AI是一款开源工具,可将长视频快速转为手绘风格故事板,并自动生成社交媒体文案,提升内容创作效率。其核心功能是支持解析B站、小红书等平台链接,智能提取视频内容。
字节跳动与南洋理工大学联合推出开源框架StoryMem,通过创新的“视觉记忆”机制,将单镜头视频扩散模型升级为多镜头长视频生成工具,能自动生成超过1分钟、镜头切换自然、角色场景连贯的叙事视频,推动开源AI视频技术向电影级叙事迈进。
最新研究显示,YouTube向新用户推荐的视频中,超过20%是“AI垃圾内容”,由人工智能生成,旨在获取浏览量。调研覆盖1.5万个热门频道,发现278个频道专门发布此类内容,累计播放量超630亿次,订阅者达2.21亿,年收入估计约1.17亿美元。
ReelMuse.ai是一体化AI平台,可生成视频、图像和音频等。
Inspix AI是终极AI视频与图像创作平台,可从文本和图像生成视频。
一体化AI创作平台,集成20+前沿模型,支持图、文、音创作
InfiniteTalk AI技术可将图像或视频转化为唇形完美同步的逼真会说话视频。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$2
$20
$6
$24
256
Baidu
128
$8
$240
52
unsloth
Qwen3-VL-2B-Instruct是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持以及强大的空间和视频动态理解能力。该模型采用2B参数规模,支持指令交互,适用于多模态AI应用。
citizenplain
这是一个基于Wan2.1-T2V-14B模型训练的LoRA适配器,专门用于文本到视频转换任务。该模型使用AI Toolkit训练,为视频生成应用提供支持。
zambawi
joywan-lora是基于AI Toolkit by Ostris训练的LoRA模型,专门用于文本到视频和图像生成任务,需要配合基础模型Wan-AI/Wan2.1-T2V-14B-Diffusers使用。
spamnco
这是一个基于Wan2.1-T2V-14B模型训练的LoRA适配器,专门用于文本到视频转换任务,为图像生成提供增强功能。该模型使用AI Toolkit训练,需要特定的触发词'diddly'来激活图像生成。
BarleyFarmer
natalie_wan_2.2-lora 是基于 AI Toolkit by Ostris 训练的 LoRA 模型,专门用于文本到视频转换任务,能够有效提升图像生成的质量和效果。
MartinSSSTSGH
这是一个基于AI Toolkit by Ostris训练的LoRA模型,专门用于文本到视频的图像生成任务,使用触发词'Lilly'来生成特定风格的图像内容。
Mark111111111
这是一个基于AI Toolkit by Ostris训练的LoRA模型,专门用于文本到视频转换,为图像生成带来新的体验。该模型需要配合基础模型Wan2.2-T2V-A14B使用。
Ashmotv
animat3d_style_wan-lora是基于AI Toolkit by Ostris训练的LoRA模型,专门用于文本到视频生成,可为图像生成带来独特的3D动画风格效果。该模型基于Wan2.2-T2V-A14B基础模型进行微调,支持多种主流AI平台使用。
Isshywondertwin
Alexis_Noir_Wan2.2-lora 是使用 AI Toolkit by Ostris 训练的 LoRA 模型,专门用于图像到视频转换任务。该模型基于 Wan2.2-I2V-A14B 基础模型,支持高分辨率图像生成。
bigdoinks420518
这是一个使用AI Toolkit by Ostris训练的LoRA模型,基于Wan-AI/Wan2.1-T2V-14B-Diffusers基础模型,主要用于文本到视频生成,在图像生成领域有独特应用价值。
deadpoolx22
这是一个基于AI技术的文本到视频LoRA模型,专门针对alita角色进行优化训练,可用于图像生成等场景,为相关领域的应用提供了便利。
jude1903
AJWWan22-lora 是一个基于文本生成视频的LoRA模型,通过AI Toolkit进行训练,专门用于图像生成任务。该模型需要特定的触发词来激活生成功能。
fraemwerk
这是一个基于Wan2.1-T2V-14B模型的文本到视频LoRA适配器,使用AI Toolkit训练,专注于图像生成任务,需要特定触发词'fraemwerk'来激活生成功能。
这是一个基于AI Toolkit by Ostris训练的LoRA模型,专门用于文本到视频的转换任务。模型基于Wan2.2-T2V-A14B架构,支持高分辨率图像生成。
xreborn
ohwx2_wan-lora是一个基于文本生成视频的LoRA模型,使用AI Toolkit训练,专门用于图像生成任务,需要特定触发词'ohwx girl'来激活生成效果。
zac
这是一个基于AI Toolkit by Ostris训练的LoRA模型,专门用于图像到视频转换任务,为图像生成提供了新的解决方案。该模型基于Qwen/Qwen-Image基础模型构建,使用John作为触发词来生成图像。
Hikarias
f3rnanda_wan22-lora是基于AI Toolkit by Ostris训练的LoRA模型,专门用于图像到视频的生成任务。该模型使用Wan2.2-I2V-A14B作为基础模型,支持在多种AI工具中使用,包括ComfyUI、AUTOMATIC1111等主流平台。
lichorosario
piccoli_no_style-lora是一个基于图像到视频、LoRA技术的生成模型,使用AI Toolkit训练,以Qwen/Qwen-Image为基础模型,支持多种图像生成场景。
piccoli_no_style-lora 是一个基于图像到视频技术的LoRA模型,使用AI Toolkit进行训练,主要用于图像生成任务,可与多种主流AI工具配合使用。
trinty2535425
这是一个基于Qwen/Qwen-Image基础模型训练的图像到视频LoRA模型,采用LoRA(Low-Rank Adaptation)技术实现高效微调,可用于AI图像生成等相关任务
AI视频生成MCP服务器,支持文本和图像输入生成动态视频,提供多种参数控制和模型选择。
MCP Kling是首个且唯一完整的Kling AI MCP服务器,提供13种创意工具,支持视频生成、图像处理、唇形同步及虚拟试衣等功能,实现与Claude的无缝集成,适用于内容创作者和开发者。
这是一个基于Runway API的MCP服务器项目,允许用户通过Claude Desktop调用Runway的各种AI生成功能,包括视频生成、图像生成、视频编辑和超分辨率等工具。
基于TypeScript的MCP服务器,提供AI图像和视频生成功能,需要GPT4O Image Generator的API密钥支持。
一个基于TypeScript的MCP服务器,提供AI图像和视频生成功能,需GPT4O Image Generator的API密钥支持。
一个集成RunwayML和Luma AI API的多功能MCP服务器,支持视频/图像生成及处理任务
一个基于MCP协议的YouTube API桥接服务器,用于AI助手获取视频字幕和生成摘要
FAL图像视频MCP服务器是一个高性能的MCP协议服务器,专门用于FAL AI的图像和视频生成,支持自动下载到本地机器。它提供了公共URL、数据URL和本地文件路径,适用于Claude等MCP兼容客户端。
Luma AI的MCP服务器,通过Dream Machine API实现文本/图像生成视频、视频增强及创意内容管理功能
Tavus MCP服务器是一个基于Model Context Protocol的AI视频生成服务接口,提供完整的Tavus API v2功能,包括AI数字人创建、视频生成、对话式AI、唇形同步和语音合成等25个工具。
Luma AI MCP服务器是一个基于Model Context Protocol的服务,集成了Luma AI的Dream Machine API(v1),提供AI生成视频/图像的工具集,包括文本/图像转视频、视频扩展、音频添加、画质提升等功能,支持通过Claude Desktop直接调用。
一个将YouTube转化为可查询知识源的MCP服务,提供视频搜索、详情获取、内容分析等功能,并支持通过AI进行摘要生成、学习路径规划等高级操作。
一个集成Scenext AI视频生成平台的MCP服务器,用于根据题目生成教学讲解视频。