智谱AI宣布将其视频生成模型CogVideoX开源,旨在推动视频生成技术的快速发展和应用。CogVideoX模型基于先进的大型模型技术,能够满足商业级应用的需求。目前开源的CogVideoX-2B版本在FP-16精度下的推理仅需18GB显存,微调则需要40GB显存,使得单张4090显卡即可进行推理,而单张A6000显卡即可完成微调。
一个开源的视频生成模型,用于创造生动的视频内容。
Chatglm
-
输入tokens/百万
输出tokens/百万
上下文长度
Fudan-FUXI
CogVideoX-2B-LiFT是基于奖励加权学习方法对CogVideoX-1.5进行微调的文本到视频生成模型
NimVideo
基于千万级视频数据微调的图像到视频生成模型,生成质量媲美CogVideoX-5B的SBS级别水准
Zlikwid
这是一个为THUDM/CogVideoX-2b训练的LoRA权重模型,专注于文本生成视频任务
rttrsabc
CogVideoX是源自清影的视频生成模型的开源版本,2B版本为入门级模型,平衡兼容性,运行和二次开发成本低。
bertjiazheng
KoolCogVideoX-2b是基于CogVideoX-2B微调的模型,专为室内设计场景优化的文本生成视频模型。
THUDM
CogVideoX是源自清影的开源视频生成模型,2B版本是入门级模型,平衡兼容性,运行和二次开发成本低。
zai-org
CogVideoX-2B是一个20亿参数的视频生成模型,能够根据文本输入生成对应的视频内容。该模型在成本和兼容性上取得了良好平衡,支持多种优化技术,适用于多种视频生成场景。