阿里巴巴通義實驗室發佈MAI-UI多模態GUI智能代理家族,整合人機交互、工具使用與雲端協作,在通用及移動GUI導航方面表現領先,超越多個同行模型。該系統基於Qwen3VL構建,提供多種規模模型,支持自然語言指令處理。
阿里巴巴Qwen團隊發佈全新圖像編輯模型Qwen-Image-Edit-2511,針對AI修圖常見的人臉變形和身份丟失問題實現突破,能精準保留人物面部特徵。該模型是此前版本的重大升級,支持單人肖像精細編輯和多場景處理。
阿里巴巴開源Fun-Audio-Chat-8B語音大模型,主打超低延遲與自然交互,性能媲美GPT-4o Audio等閉源模型。它具備實時理解和情感感知能力,旨在成爲真正的AI語音夥伴。
阿里巴巴計劃採購數萬顆AMD MI308 AI芯片,以滿足其人工智能領域的需求。MI308是一款專爲中國市場設計的合規芯片,已獲美國出口許可,與英偉達H20同爲合規產品。此舉凸顯阿里對AI技術的重視,但MI308在性價比和安全性方面與H20存在差異。
Qwen Image AI是阿里巴巴Qwen團隊推出的開源圖像生成和編輯基礎模型,用於準確的圖像文本渲染和高級編輯。
Qwen Image是阿里巴巴的免費開源AI圖像生成器,擅長在圖像中進行文本渲染。
Wan是阿里巴巴通義實驗室開發的先進視覺生成模型,可基於文本、圖像等生成視頻。
MNN 是阿里巴巴開源的輕量級高性能推理引擎,支持多種主流模型格式。
Alibaba
-
輸入tokens/百萬
輸出tokens/百萬
上下文長度
$1
$10
256
$6
$24
$2
$20
$4
$16
1k
$8
$240
52
$15.8
$12.7
64
$3.9
$15.2
$0.8
128
32
$1.6
pramjana
Qwen3-VL-4B-Instruct是阿里巴巴推出的40億參數視覺語言模型,基於Qwen3架構開發,支持多模態理解和對話任務。該模型具備強大的圖像理解和文本生成能力,能夠處理複雜的視覺語言交互場景。
ojus1
Qwen2.5是阿里巴巴推出的新一代大語言模型,在聊天模板方面進行了重要優化,永久禁用了思考狀態,解決了多輪聊天模板相關問題,為實驗和研究提供了更便捷的體驗。
unsloth
Qwen3-VL是阿里巴巴推出的新一代視覺語言模型,在文本理解、視覺感知、空間理解、長上下文處理和智能體交互等方面全面升級,支持從邊緣設備到雲端的靈活部署。
Qwen3-VL是阿里巴巴推出的最新一代視覺語言模型,在文本理解、視覺感知、空間理解、視頻分析和智能體交互等方面均有顯著提升。該模型支持多模態輸入,具備強大的推理能力和長上下文處理能力。
noctrex
這是阿里巴巴通義深度研究30B-A3B模型的量化版本,採用MXFP4_MOE量化技術並額外添加imatrix量化,旨在優化模型性能和資源使用效率,適用於文本生成任務。
Qwen
Qwen3-VL是阿里巴巴推出的最新一代視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力,支持長上下文處理和視頻理解,提供指令優化版本。
geoffmunn
這是阿里巴巴Qwen系列80億參數大語言模型的GGUF量化版本,專為高級推理、智能體行為和多語言任務設計,可與llama.cpp及兼容工具配合使用。
DevQuasar
本項目是阿里巴巴通義深度研究30B模型的A3B量化版本,旨在通過量化技術降低模型部署成本,讓知識為每個人所用。該模型基於30B參數規模的大語言模型進行優化,保持了原模型的強大能力同時提升了推理效率。
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通義千問團隊開發的多模態視覺語言模型,基於70億參數規模,專門針對視覺問答任務進行優化訓練。該模型能夠理解和分析圖像內容,並生成準確的自然語言回答。
這是Qwen/Qwen3-4B語言模型的GGUF量化版本,由阿里巴巴通義系列開發的40億參數大語言模型,專為消費級硬件設計,支持強大推理、智能體工作流和多語言交互。
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通義千問團隊開發的最新一代大型語言模型,採用創新的混合注意力機制和高稀疏專家混合架構,在保持80B總參數的同時僅激活3B參數,實現了高效的上下文建模和推理加速,原生支持262K上下文長度並可擴展至1M令牌。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,採用優化的Transformer架構,支持多模態輸入(文本和圖像),適用於多種AI應用場景。該模型通過TensorRT Model Optimizer進行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里巴巴Qwen3-32B模型的量化版本,使用優化的Transformer架構,對權重和激活進行FP4量化,適合用於AI智能體系統、聊天機器人、RAG系統等AI應用。
這是NVIDIA對阿里巴巴Qwen3-14B模型進行FP8量化後的版本,採用優化的Transformer架構,支持131K上下文長度,適用於多種AI應用場景。
NVIDIA Qwen3-14B FP4模型是阿里巴巴Qwen3-14B模型的量化版本,採用FP4數據類型進行優化,通過TensorRT-LLM進行高效推理。該模型專為NVIDIA GPU加速系統設計,適用於AI Agent系統、聊天機器人、RAG系統等多種AI應用場景,支持全球範圍內的商業和非商業使用。
NVIDIA Qwen3-8B FP8 是阿里巴巴Qwen3-8B模型的量化版本,採用優化的Transformer架構,屬於自迴歸語言模型。該模型通過FP8量化技術優化,可在NVIDIA GPU上實現高效推理,支持商業和非商業用途。
NVIDIA Qwen3-8B FP4 模型是阿里巴巴Qwen3-8B模型的量化版本,採用優化的Transformer架構的自迴歸語言模型。該模型使用FP4量化技術,在保持性能的同時顯著減少內存佔用和計算需求,適用於AI智能體系統、聊天機器人、RAG系統等應用場景。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通義千問團隊開發的40億參數指令微調大語言模型,基於Qwen3架構優化,專門針對對話和指令跟隨任務進行訓練,具備強大的文本生成和理解能力。
lmstudio-community
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通義千問團隊推出的300億參數大語言模型,專門針對指令跟隨任務進行了優化。該模型支持文本生成、對話交互等多種自然語言處理任務,並通過LM Studio社區模型計劃向開發者開放使用。
mlx-community
這是Qwen3-235B-A22B-Thinking-2507模型的3位量化版本,專為MLX框架優化轉換。原模型是阿里巴巴Qwen團隊開發的大型語言模型,具備2350億參數規模,支持思維鏈推理能力。