ggml-org
這是一個基於Qwen3-VL-30B-A3B-Instruct模型轉換的GGUF格式版本,專門為llama.cpp優化。該模型是一個300億參數的多模態視覺語言模型,支持圖像理解和文本生成任務。
unsloth
Qwen3-VL是通義系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力以及出色的智能體交互能力。
Qwen
Qwen3-VL-30B-A3B-Instruct是通義系列中最強大的視覺語言模型,採用混合專家模型架構,具備出色的文本理解與生成能力、深入的視覺感知與推理能力,支持256K長上下文和視頻理解,可在多種設備上進行推理。
Qwen3-VL是迄今為止Qwen系列中最強大的視覺語言模型,在文本理解與生成、視覺感知與推理、上下文長度、空間和視頻動態理解以及智能體交互能力等方面都進行了全面升級。該模型採用混合專家(MoE)架構,提供卓越的多模態處理能力。
Hugguf
Qwen3-VL-30B-A3B-Instruct是基於Qwen3-VL-30B模型的多模態視覺語言模型,支持圖像和文本的聯合理解與生成任務。該模型採用先進的視覺語言融合架構,能夠處理複雜的多模態推理任務。
noctrex
本項目是慧慧-Qwen3-VL-30B-A3B-Instruct-abliterated模型的MXFP4_MOE量化版本,專門用於文本生成任務。該模型基於Qwen3-VL架構,經過優化和量化處理,目前仍處於實驗階段。
本項目提供了慧慧Qwen3-VL-30B-A3B-Instruct模型的量化版本,旨在提升模型在特定場景下的性能與效率。這是一個基於Qwen3-VL架構的視覺語言模型,支持圖像和文本的多模態交互。
本項目是對Qwen3-VL-30B-A3B-Instruct模型進行MXFP4_MOE量化的成果。該模型可實現圖像文本到文本的轉換,為相關領域的應用提供了新的解決方案。截至2025年10月22日,此模型仍處於實驗階段。
mlfoundations-cua-dev
OLGA是基於Qwen3-VL-30B-A3B-Instruct構建的在線強化學習定位代理,採用33億激活參數的專家混合模型。通過結合現有數據集、新數據收集、自動過濾和在線強化學習的新數據配方進行訓練,在開源模型中實現了先進的定位性能。
ticoAg
Qwen3-VL-30B-A3B-Instruct-AWQ是Qwen3-VL系列的量化版本,具備強大的視覺語言處理能力,支持圖像理解、視頻分析、多模態推理等任務。該模型在文本理解、視覺感知、空間理解、長上下文處理等方面均有顯著提升。
mlx-community
這是Qwen3-VL-30B-A3B-Instruct模型的4位量化MLX格式版本,由mlx-community轉換和維護。該模型是一個300億參數的多模態視覺語言模型,支持圖像理解和文本生成任務。
bartowski
這是Qwen3-VL-30B-A3B-Instruct模型的LlamaCPP量化版本,通過先進的量化技術優化模型性能,使其在不同硬件環境下更高效運行。支持多模態視覺語言理解任務。
QuantTrio
Qwen3-VL-30B-A3B-Instruct-AWQ是基於Qwen/Qwen3-VL-30B-A3B-Instruct的量化版本,具備強大的視覺語言處理能力,在文本理解、視覺感知、推理等多方面表現出色。
Qwen3-VL-30B-A3B-Instruct-FP8是通義系列中最強大的視覺語言模型的FP8量化版本,採用塊大小為128的細粒度FP8量化,性能與原始BF16模型幾乎相同。該模型具備卓越的文本理解和生成能力、深入的視覺感知和推理能力、長上下文支持以及強大的智能體交互能力。
Qwen3-VL是通義系列最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文處理、空間和視頻動態理解能力,以及出色的智能體交互能力。