具身智能领域的神秘模型MotuBrain身份揭晓,该模型由视频大模型Vidu开发商生数科技推出,是其最新商业化成果。MotuBrain在物理世界理解基准WorldArena和动作执行基准RoboTwin2.0中均登顶,刷新了纪录,展示了生数科技在具身智能领域的跨界实力。
阿里巴巴ATH创新事业部推出新一代多模态视频生成模型HappyHorse,已开启灰度测试。该模型在Arena.ai三大核心榜单(文生视频、图生视频、视频编辑)中表现优异,具备影视级画质与深度语义理解能力,支持1080P超高清输出,能精准驾驭港式风情、古装等多种视觉风格,成为全球AI视频领域的有力竞争者。
Google正在YouTube测试“向YouTube提问”生成式AI搜索功能,将关键词检索升级为对话模式。该实验面向美国18岁以上YouTube Premium用户,旨在实现视频搜索从内容匹配向深层信息理解与聚合的转变。
在Microsoft AI Tour年度盛会上,豆神教育推出全新“豆神AI短剧平台”,基于多模态AI架构,融合文本理解、图像生成、视频生成及智能配音技术,涵盖剧本创作、分镜拆解到角色设定等功能,标志着AI在内容创作领域的重大突破。
一款强大的音视频多媒体素材生成与理解能力的 AI 工具。
利用先进的AI算法解锁大规模视频洞见的Memories.ai。
TwelveLabs是被领先研究人员认可为视频理解中性能最出色的人工智能,超越了云计算巨头和开源模型的基准。
用于理解任意视频中的相机运动的工具。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
-
$8
$240
52
Bytedance
$1.2
$3.6
4
Shawon16
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集上预训练,并在一个未知的、可能与手语识别相关的数据集上进行了微调。模型在评估集上取得了78.11%的准确率,适用于视频分类任务。
这是一个基于VideoMAE-base架构微调的视频理解模型,专门针对手语识别任务进行优化。模型在WLASL数据集上训练了200个epoch,采用TimeSformer架构处理视频序列。
这是一个基于VideoMAE-base架构微调的视频理解模型,专门针对手语识别任务进行优化。模型在WLASL100数据集上训练了200个epoch,具备视频动作识别能力。
这是一个基于VideoMAE-base架构在未知数据集上微调的视频理解模型,专门用于手语识别任务。模型在20个训练周期后达到了18.64%的准确率。
这是一个基于VideoMAE架构的视频理解模型,在Kinetics数据集预训练的基础上进行了微调,专门用于手语识别任务。模型在评估集上表现有待提升,准确率为0.0010。
这是一个基于VideoMAE-base架构的视频理解模型,在未知数据集上进行了20个epoch的微调训练。模型在评估集上表现有限,准确率为0.0041,损失值为7.7839。
这是基于MCG-NJU/videomae-base模型在未知数据集上微调的视频理解模型,经过20个epoch的训练,在评估集上达到13.31%的准确率。该模型专门针对视频分析任务进行优化。
redponike
Qwen3-VL-4B-Instruct 是通义千问系列最新的视觉语言模型,在4B参数规模下实现了卓越的视觉感知、文本理解与生成、空间推理和智能体交互能力。它支持长上下文和视频理解,具备强大的OCR和多语言处理能力。
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文处理、空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,实现了全方位的综合升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本为2B参数的思考增强版,专门优化了推理能力。
Qwen
Qwen3-VL-30B-A3B-Thinking是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。
Qwen3-VL是通义系列最强大的视觉语言模型,采用混合专家模型架构(MoE),提供GGUF格式权重,支持在CPU、GPU等设备上进行高效推理。模型在文本理解、视觉感知、空间理解、视频处理等方面全面升级。
Qwen3-VL-30B-A3B-Instruct是通义系列中最强大的视觉语言模型,采用混合专家模型架构,具备出色的文本理解与生成能力、深入的视觉感知与推理能力,支持256K长上下文和视频理解,可在多种设备上进行推理。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。本仓库提供GGUF格式权重,支持在CPU、GPU等设备上高效推理。
Popcorn是一个让AI智能体能够观看和理解视频的MCP工具,通过本地提取视频字幕、检测场景变化并返回关键帧,无需外部API,保护隐私。
CloudGlue MCP服务是一个连接AI助手与视频数据的桥梁,通过结构化处理视频内容,使其能被大型语言模型理解和使用。