阿里巴巴開源Qwen3-Next-80B-A3B模型,在AIGC領域取得重要突破。該模型採用混合注意力機制和MoE架構,總參數量達800億但推理僅激活30億,訓練成本比前代下降90%,推理效率提升10倍,尤其擅長處理超長內容。
Alibaba
$2
輸入tokens/百萬
-
輸出tokens/百萬
256
上下文長度
lefromage
Qwen3-Next-80B-A3B-Thinking是基於Qwen3-Next-80B-A3B-Thinking模型的量化版本,專門針對文本生成任務優化。該模型需要與llama.cpp的PR 16095版本配合使用,提供了多種量化級別以適應不同的硬件配置。
nightmedia
這是Qwen3-Next-80B-A3B-Instruct模型的MLX格式轉換版本,專為在Apple Silicon設備上高效運行而優化。該模型是一個800億參數的大型語言模型,支持文本生成任務,具有強大的對話和推理能力。
noctrex
這是Qwen3-Next-80B-A3B-Thinking的MXFP4量化版本,採用先進的量化技術在保持模型性能的同時顯著減少存儲和計算需求。作為實驗性版本,展示了最新的量化技術成果。
這是Qwen3-Next-80B-A3B-Instruct的MXFP4量化實驗版本,基於前沿的量化技術開發,提供高效的文本生成能力。該版本為實驗性質,需要特殊版本的llama.cpp支持。
Qwen3-Next-80B-A3B-Thinking-1M-qx64n-mlx是一個採用混合專家架構和Deckard混合精度量化技術的大語言模型,具有800億參數和1M標記的上下文長度。該模型在科學技術推理和長文本處理方面表現卓越,相比指令模型在認知基準測試中提升20-35%。
基於Qwen3-Next的800億參數指令微調模型,採用Deckard qx64n混合精度量化技術,支持100萬上下文長度,在抽象推理、內存效率和長上下文處理方面表現優異
這是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。該模型是一個800億參數的大型語言模型,採用Apache 2.0許可證,支持文本生成任務。GGUF格式便於在本地設備上部署和運行。
Qwen3-Next-80B-A3B-Thinking-1M-qx86n-hi-mlx是基於Qwen3-Next-80B-A3B-Thinking模型轉換的MLX格式版本,專門擅長長鏈推理和逐步思考,在推理任務中表現出色。
這是一個基於Qwen3-Next-80B-A3B-Instruct模型的Q4_0量化版本,通過特定量化技術顯著提升了模型在存儲和計算方面的效率,同時保持了良好的性能表現。
jackcloudman
Qwen3-Next-80B-A3B-Thinking 是通義千問團隊推出的新一代思考型大語言模型,採用創新的混合注意力機制和高稀疏MoE架構,在保持高效推理的同時具備強大的複雜推理能力,原生支持262K上下文長度。
RESMP-DEV
這是使用LLM Compressor和NVFP4格式對Qwen/Qwen3-Next-80B-A3B-Thinking進行量化後的版本,採用FP4微縮放技術,在保持高精度的同時大幅減少模型存儲和計算需求。
cturan
Qwen3-Next-80B-A3B-Instruct是Qwen3-Next系列的前沿大語言模型,通過創新架構提升了參數效率和推理速度,在多領域展現出卓越性能,原生支持超長上下文處理。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通義千問團隊開發的高效稀疏混合專家模型,總參數量80B,激活參數量僅3B。該模型採用創新的混合注意力機制和極低激活率的MoE架構,在保持強大性能的同時大幅提升推理效率,原生支持262K上下文長度並可擴展至1M令牌。
這是Qwen3-Next-80B-A3B-Thinking模型的8位AWQ量化版本,通過先進的量化技術優化推理效率,在保持模型性能的同時顯著降低資源消耗,適用於大規模文本生成任務。
NexVeridian
這是Qwen3-Next-80B-A3B-Thinking模型的3位量化MLX格式版本,專為Apple Silicon設備優化,使用mlx-lm 0.27.1工具轉換,保持了原模型強大的推理能力同時顯著減小了模型大小
lmstudio-community
Qwen3-Next-80B-A3B-Thinking是經過4位量化處理、專門針對Apple Silicon優化的80B參數大語言模型,入選LM Studio社區模型亮點計劃,專注於文本生成任務。
本模型是基於Qwen/Qwen3-Next-80B-A3B-Instruct原模型使用mlx-lm 0.28.0版本轉換的4位量化MLX格式模型,專為蘋果芯片優化,支持高效的文本生成任務。
Qwen3-Next-80B-A3B-Instruct是阿里雲通義千問團隊開發的大規模語言模型,經過MLX框架4位量化優化,專門針對蘋果芯片設備進行了性能優化,提供高效的推理能力。
abnormalmapstudio
這是基於Qwen3-Next-80B-A3B-Thinking基礎模型的蘋果MLX優化4位mxfp4量化版本,專門針對蘋果硅芯片優化,可在Mac設備上實現高效的本地推理,顯著降低內存佔用同時保持良好性能。
Qwen3-Next-80B-A3B-Instruct-qx64-mlx 是 Qwen 系列的大型語言模型,專門轉換為 MLX 格式用於高效文本生成。該模型具有 800 億參數,支持多語言交互,特別針對指令跟隨任務進行了優化。