阿里巴巴がオープンソースモデルQwen3-Next-80B-A3Bを公開。混合注意機構とMoEアーキテクチャ採用で、800億パラメータながら30億のみ活性化。訓練コスト90%削減、推論効率10倍向上、長文処理に優れる。....
Alibaba
$2
入力トークン/百万
-
出力トークン/百万
256
コンテキスト長
lefromage
Qwen3-Next-80B-A3B-Thinkingは、Qwen3-Next-80B-A3B-Thinkingモデルの量子化バージョンで、テキスト生成タスクに特化して最適化されています。このモデルは、llama.cppのPR 16095バージョンと組み合わせて使用する必要があり、さまざまなハードウェア構成に対応するための複数の量子化レベルを提供します。
nightmedia
これはQwen3-Next-80B-A3B-InstructモデルのMLX形式への変換バージョンで、Apple Siliconデバイス上での効率的な実行のために最適化されています。このモデルは800億パラメータの大規模言語モデルで、テキスト生成タスクをサポートし、強力な対話と推論能力を持っています。
noctrex
これはQwen3-Next-80B-A3B-ThinkingのMXFP4量子化バージョンで、先進的な量子化技術を採用して、モデルの性能を維持しながら、ストレージと計算の要件を大幅に削減しています。実験的なバージョンとして、最新の量子化技術の成果を示しています。
これはQwen3-Next-80B-A3B-InstructのMXFP4量子化実験バージョンで、最先端の量子化技術に基づいて開発され、効率的なテキスト生成能力を提供します。このバージョンは実験的な性質を持ち、特殊バージョンのllama.cppが必要です。
Qwen3-Next-80B-A3B-Thinking-1M-qx64n-mlxは、混合専門家アーキテクチャとDeckard混合精度量子化技術を採用した大規模言語モデルで、800億のパラメータと1Mトークンのコンテキスト長を持っています。このモデルは、科学技術推論と長文処理において卓越した性能を発揮し、命令モデルと比較して認知ベンチマークテストで20 - 35%の向上を示します。
Qwen3-Nextに基づく800億パラメータの命令微調整モデルで、Deckard qx64n混合精度量子化技術を採用し、100万のコンテキスト長をサポートし、抽象推論、メモリ効率、長コンテキスト処理において優れた性能を発揮します。
これはQwen3-Next-80B-A3B-InstructモデルのGGUF量子化形式のバージョンで、lefromageによって提供されています。このモデルは800億パラメータの大規模言語モデルで、Apache 2.0ライセンスを採用し、テキスト生成タスクをサポートしています。GGUF形式はローカルデバイスでのデプロイと実行が容易です。
Qwen3-Next-80B-A3B-Thinking-1M-qx86n-hi-mlxは、Qwen3-Next-80B-A3B-Thinkingモデルを変換したMLX形式のバージョンで、長鎖推論と段階的な思考に特化しており、推論タスクで優れた性能を発揮します。
これはQwen3-Next-80B-A3B-Instructモデルに基づくQ4_0量子化バージョンで、特定の量子化技術により、モデルのストレージと計算の効率を大幅に向上させ、同時に良好なパフォーマンスを維持しています。
jackcloudman
Qwen3-Next-80B-A3B-Thinkingは通義千問チームが開発した新世代の思考型大規模言語モデルで、革新的な混合注意力機構と高疎性MoEアーキテクチャを採用し、高効率推論を維持しながら強力な複雑推論能力を備え、ネイティブで262Kの文脈長をサポートします。
RESMP-DEV
これは、LLM CompressorとNVFP4形式を使用してQwen/Qwen3-Next-80B-A3B-Thinkingを量子化したバージョンで、FP4マイクロスケーリング技術を採用し、高精度を維持しながらモデルの保存と計算要件を大幅に削減します。
cturan
Qwen3-Next-80B-A3B-InstructはQwen3-Nextシリーズの最先端の大規模言語モデルで、革新的なアーキテクチャによりパラメータ効率と推論速度を向上させ、多領域で卓越した性能を発揮し、ネイティブで超長コンテキスト処理をサポートしています。
cpatonn
Qwen3-Next-80B-A3B-Instructは通義千問チームが開発した効率的な疎な混合エキスパートモデルで、総パラメータ数は80B、活性化パラメータ数はわずか3Bです。このモデルは革新的な混合注意力機構と極低活性化率のMoEアーキテクチャを採用し、強力な性能を維持しながら推論効率を大幅に向上させ、ネイティブで262Kのコンテキスト長をサポートし、1Mトークンまで拡張可能です。
これはQwen3-Next-80B-A3B-Thinkingモデルの8ビットAWQ量子化バージョンで、先進的な量子化技術により推論効率を最適化し、モデルの性能を維持しながらリソース消費を大幅に削減し、大規模なテキスト生成タスクに適しています。
NexVeridian
これはQwen3-Next-80B-A3B-Thinkingモデルの3ビット量子化MLX形式バージョンで、Apple Siliconデバイス向けに最適化され、mlx-lm 0.27.1ツールを使用して変換され、元のモデルの強力な推論能力を維持しながら、モデルサイズを大幅に縮小しています。
lmstudio-community
Qwen3-Next-80B-A3B-Thinkingは、4ビット量子化処理が施され、Apple Silicon向けに特別に最適化された80Bパラメータの大規模言語モデルで、LM Studioコミュニティモデルハイライトプログラムに選定され、テキスト生成タスクに特化しています。
このモデルは、Qwen/Qwen3-Next-80B-A3B-Instructの元モデルをmlx-lm 0.28.0バージョンを使用して変換した4ビット量子化MLX形式のモデルで、Appleチップ用に最適化され、効率的なテキスト生成タスクをサポートします。
Qwen3-Next-80B-A3B-Instructはアリババクラウドの通義千問チームによって開発された大規模言語モデルで、MLXフレームワークを用いた4ビット量子化最適化を行い、Appleチップデバイス向けに性能最適化を行い、効率的な推論能力を提供します。
abnormalmapstudio
これはQwen3-Next-80B-A3B-Thinking基礎モデルに基づくApple MLX最適化4ビットmxfp4量子化バージョンで、Appleシリコンチップに特化して最適化されており、Macデバイスで効率的なローカル推論を実現し、メモリ使用量を大幅に削減しながら良好なパフォーマンスを維持します。
Qwen3-Next-80B-A3B-Instruct-qx64-mlxはQwenシリーズの大規模言語モデルで、MLX形式に変換され、効率的なテキスト生成に使用されます。このモデルは800億のパラメータを持ち、多言語対応で、特に命令追従タスクに最適化されています。