Qwen3-30B-A3Bモデルは重要なアップデートを受け、新しいバージョンであるQwen3-30B-A3B-Thinking-2507がリリースされました。この新バージョンは、推論能力、汎用性および文脈長において大幅に向上しており、このモデルがより軽量でありながらもより強力な思考能力を備えていることを示しています。4月29日にオープンソース化されたQwen3-30-A3Bモデルと比較して、新たなモデルは複数の重要な分野で進歩を遂げています。数学能力に関しては、Qwen3-30B-A3B-Thin
TeichAI
これはClaude Sonnet 4.5の推論データセットを基に訓練された300億パラメータの大規模言語モデルで、高難度の推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮します。
これはQwen3 30B A3Bモデルをベースに、Claude Sonnet 4.5の高い推論難易度のデータセットで訓練された蒸留モデルです。このモデルは複雑な推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮し、強力な論理推論能力を持っています。
rodrigomt
このプロジェクトはQwen3-30B-A3B-Thinking-2507-Deepseek-v3.1-Distill-V2-FP32モデルに基づく量子化バージョンで、F16全精度やQ5_K_XL、Q4_K_XL、Q3_K_XLなどの複数のGGUF形式のファイルを提供し、さまざまなハードウェア環境と使用ニーズに対応します。
ramblingpolymath
Qwen3-30B-A3B-Thinking-2507のW4A16量子化バージョンで、LLM-Compressorを使用して4ビットの重みと16ビットの活性化を量子化しています。FP16バージョンと比較して、メモリ使用量が約75%減少し、対応するハードウェアでより高速な推論速度を実現します。このモデルは、優れた推論能力、ツール呼び出し能力、および長文脈のサポートを備えています。
foobar2333
これはQwen3-30B-A3B-Thinking-2507モデルに基づくGGUF形式の量子化バージョンで、abliterated処理を施され、Q4_K_M量子化レベルを採用しています。このモデルはテキスト生成タスクに特化しており、中国語と英語をサポートし、30Bのパラメータ規模を持っています。
NVFP4
Qwen3-30B-A3B-Thinking-2507は、推論能力と汎用能力が著しく向上した大規模言語モデルで、長文脈理解能力を強化し、高度に複雑な推論タスクに適しています。このモデルは305億のパラメータを持ち、そのうち33億のパラメータがアクティブで、262,144トークンの長文脈処理をサポートしています。
QuantTrio
Qwen3-30B-A3B-Thinking-2507-AWQは、Qwen/Qwen3-30B-A3B-Thinking-2507のベースモデルをベースにした効率的な推論モデルです。このモデルは、推論タスク、一般的な能力、および長いコンテキストの理解において顕著な向上が見られ、高度に複雑な推論タスクに特化して最適化されており、262,144トークンの長いコンテキストの処理をサポートしています。
Qwen3-30B-A3B-Thinking-2507-GPTQ-Int8はQwen/Qwen3-30B-A3B-Thinking-2507に基づく量子化バージョンで、推論タスク、一般的な能力、長文脈理解能力などの面で著しい向上が見られ、高度に複雑な推論タスクに適しています。
nightmedia
このモデルはQwen/Qwen3-30B-A3B-Thinking-2507のMLX形式変換バージョンで、テキスト生成タスクに対して効率的な解決策を提供します。4ビット量子化技術を採用して性能を最適化し、Apple Siliconデバイスでの効率的な実行をサポートします。
cpatonn
Qwen3-30B-A3B-Thinking-2507は量子化処理された大規模言語モデルで、強化された推論能力、汎用能力、長文脈理解能力を持っています。このモデルは混合エキスパートアーキテクチャを採用しており、論理推論、数学、科学、コーディングなどの複雑なタスクで優れた性能を発揮し、262,144トークンの長文脈処理をサポートしています。
Qwen3-30B-A3B-Thinking-2507-AWQは、Qwen3-30B-A3B-Thinking-2507モデルをAWQ量子化処理したバージョンです。このモデルは、推論能力、汎用能力、長文脈理解能力などにおいて著しい向上が見られ、256Kの文脈長をサポートし、様々な自然言語処理タスクに適用できます。