ggml-org
这是一个基于Qwen3-VL-30B-A3B-Instruct模型转换的GGUF格式版本,专门为llama.cpp优化。该模型是一个300亿参数的多模态视觉语言模型,支持图像理解和文本生成任务。
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。
Qwen
Qwen3-VL-30B-A3B-Instruct是通义系列中最强大的视觉语言模型,采用混合专家模型架构,具备出色的文本理解与生成能力、深入的视觉感知与推理能力,支持256K长上下文和视频理解,可在多种设备上进行推理。
Qwen3-VL是迄今为止Qwen系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型采用混合专家(MoE)架构,提供卓越的多模态处理能力。
Hugguf
Qwen3-VL-30B-A3B-Instruct是基于Qwen3-VL-30B模型的多模态视觉语言模型,支持图像和文本的联合理解与生成任务。该模型采用先进的视觉语言融合架构,能够处理复杂的多模态推理任务。
noctrex
本项目提供了慧慧Qwen3-VL-30B-A3B-Instruct模型的量化版本,旨在提升模型在特定场景下的性能与效率。这是一个基于Qwen3-VL架构的视觉语言模型,支持图像和文本的多模态交互。
本项目是慧慧-Qwen3-VL-30B-A3B-Instruct-abliterated模型的MXFP4_MOE量化版本,专门用于文本生成任务。该模型基于Qwen3-VL架构,经过优化和量化处理,目前仍处于实验阶段。
本项目是对Qwen3-VL-30B-A3B-Instruct模型进行MXFP4_MOE量化的成果。该模型可实现图像文本到文本的转换,为相关领域的应用提供了新的解决方案。截至2025年10月22日,此模型仍处于实验阶段。
mlfoundations-cua-dev
OLGA是基于Qwen3-VL-30B-A3B-Instruct构建的在线强化学习定位代理,采用33亿激活参数的专家混合模型。通过结合现有数据集、新数据收集、自动过滤和在线强化学习的新数据配方进行训练,在开源模型中实现了先进的定位性能。
ticoAg
Qwen3-VL-30B-A3B-Instruct-AWQ是Qwen3-VL系列的量化版本,具备强大的视觉语言处理能力,支持图像理解、视频分析、多模态推理等任务。该模型在文本理解、视觉感知、空间理解、长上下文处理等方面均有显著提升。
mlx-community
这是Qwen3-VL-30B-A3B-Instruct模型的4位量化MLX格式版本,由mlx-community转换和维护。该模型是一个300亿参数的多模态视觉语言模型,支持图像理解和文本生成任务。
bartowski
这是Qwen3-VL-30B-A3B-Instruct模型的LlamaCPP量化版本,通过先进的量化技术优化模型性能,使其在不同硬件环境下更高效运行。支持多模态视觉语言理解任务。
QuantTrio
Qwen3-VL-30B-A3B-Instruct-AWQ是基于Qwen/Qwen3-VL-30B-A3B-Instruct的量化版本,具备强大的视觉语言处理能力,在文本理解、视觉感知、推理等多方面表现出色。
Qwen3-VL-30B-A3B-Instruct-FP8是通义系列中最强大的视觉语言模型的FP8量化版本,采用块大小为128的细粒度FP8量化,性能与原始BF16模型几乎相同。该模型具备卓越的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持以及强大的智能体交互能力。
Qwen3-VL是通义系列最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文处理、空间和视频动态理解能力,以及出色的智能体交互能力。