阿里巴巴开源Qwen3-Next-80B-A3B模型,在AIGC领域取得重要突破。该模型采用混合注意力机制和MoE架构,总参数量达800亿但推理仅激活30亿,训练成本比前代下降90%,推理效率提升10倍,尤其擅长处理超长内容。
Alibaba
$2
输入tokens/百万
-
输出tokens/百万
256
上下文长度
huawei-csl
这是使用华为SINQ(Sinkhorn归一化量化)方法对Qwen3-Next-80B大语言模型进行4位量化后的版本。SINQ是一种新颖、快速且高质量的量化方法,旨在显著压缩模型体积(约减少75%),同时保持与原始模型几乎不变的准确性,使其更易于部署。
lefromage
Qwen3-Next-80B-A3B-Thinking是基于Qwen3-Next-80B-A3B-Thinking模型的量化版本,专门针对文本生成任务优化。该模型需要与llama.cpp的PR 16095版本配合使用,提供了多种量化级别以适应不同的硬件配置。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
noctrex
这是Qwen3-Next-80B-A3B-Thinking的MXFP4量化版本,采用先进的量化技术在保持模型性能的同时显著减少存储和计算需求。作为实验性版本,展示了最新的量化技术成果。
这是Qwen3-Next-80B-A3B-Instruct的MXFP4量化实验版本,基于前沿的量化技术开发,提供高效的文本生成能力。该版本为实验性质,需要特殊版本的llama.cpp支持。
Qwen3-Next-80B-A3B-Thinking-1M-qx64n-mlx是一个采用混合专家架构和Deckard混合精度量化技术的大语言模型,具有800亿参数和1M标记的上下文长度。该模型在科学技术推理和长文本处理方面表现卓越,相比指令模型在认知基准测试中提升20-35%。
基于Qwen3-Next的800亿参数指令微调模型,采用Deckard qx64n混合精度量化技术,支持100万上下文长度,在抽象推理、内存效率和长上下文处理方面表现优异
这是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。该模型是一个800亿参数的大型语言模型,采用Apache 2.0许可证,支持文本生成任务。GGUF格式便于在本地设备上部署和运行。
Qwen3-Next-80B-A3B-Thinking-1M-qx86n-hi-mlx是基于Qwen3-Next-80B-A3B-Thinking模型转换的MLX格式版本,专门擅长长链推理和逐步思考,在推理任务中表现出色。
这是一个基于Qwen3-Next-80B-A3B-Instruct模型的Q4_0量化版本,通过特定量化技术显著提升了模型在存储和计算方面的效率,同时保持了良好的性能表现。
jackcloudman
Qwen3-Next-80B-A3B-Thinking 是通义千问团队推出的新一代思考型大语言模型,采用创新的混合注意力机制和高稀疏MoE架构,在保持高效推理的同时具备强大的复杂推理能力,原生支持262K上下文长度。
RESMP-DEV
这是使用LLM Compressor和NVFP4格式对Qwen/Qwen3-Next-80B-A3B-Thinking进行量化后的版本,采用FP4微缩放技术,在保持高精度的同时大幅减少模型存储和计算需求。
cturan
Qwen3-Next-80B-A3B-Instruct是Qwen3-Next系列的前沿大语言模型,通过创新架构提升了参数效率和推理速度,在多领域展现出卓越性能,原生支持超长上下文处理。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
这是Qwen3-Next-80B-A3B-Thinking模型的8位AWQ量化版本,通过先进的量化技术优化推理效率,在保持模型性能的同时显著降低资源消耗,适用于大规模文本生成任务。
NexVeridian
这是Qwen3-Next-80B-A3B-Thinking模型的3位量化MLX格式版本,专为Apple Silicon设备优化,使用mlx-lm 0.27.1工具转换,保持了原模型强大的推理能力同时显著减小了模型大小
lmstudio-community
Qwen3-Next-80B-A3B-Thinking是经过4位量化处理、专门针对Apple Silicon优化的80B参数大语言模型,入选LM Studio社区模型亮点计划,专注于文本生成任务。
本模型是基于Qwen/Qwen3-Next-80B-A3B-Instruct原模型使用mlx-lm 0.28.0版本转换的4位量化MLX格式模型,专为苹果芯片优化,支持高效的文本生成任务。
Qwen3-Next-80B-A3B-Instruct是阿里云通义千问团队开发的大规模语言模型,经过MLX框架4位量化优化,专门针对苹果芯片设备进行了性能优化,提供高效的推理能力。
abnormalmapstudio
这是基于Qwen3-Next-80B-A3B-Thinking基础模型的苹果MLX优化4位mxfp4量化版本,专门针对苹果硅芯片优化,可在Mac设备上实现高效的本地推理,显著降低内存占用同时保持良好性能。