アリババの通義千問チームは7月30日、Qwen3-30B-A3B-Instruct-2507をオープンソース化。3BパラメータでGemini2.5-FlashやGPT-4oに匹敵する性能を達成。多言語対応や長文処理に優れ、一部指標でGPT-4oを上回る。計算コストを抑えつつ高性能を実現し、魔搭コミュニティとHuggingFaceで公開中。....
7月29日、Qwen3-30B-A3Bモデルは新しいバージョンであるQwen3-30B-A3B-Instruct-2507をリリースしました。この新しいバージョンは、いくつかの重要な分野で顕著な向上を遂げており、このモデルがノンスティーリングモード(非思考モード)で3Bパラメータのみを活性化させても、Gemini2.5-Flash(non-thinking)やGPT-4oなどのトップクラスの閉鎖型モデルと同等の性能を発揮できるようになったことを示しています。
Alibaba
$0.75
入力トークン/百万
-
出力トークン/百万
256
コンテキスト長
MaziyarPanahi
これはQwen/Qwen3-30B-A3B-Instruct-2507モデルのGGUF形式のバージョンで、テキスト生成タスクに特化して最適化されており、複数の量子化レベルをサポートし、様々なハードウェアでのデプロイと実行を容易にします。
tensorblock
これはunsloth/Qwen3-30B-A3B-Instruct-2507モデルのGGUF形式のバージョンで、TensorBlockが提供するマシンで量子化処理されています。このモデルは300億パラメータの大規模言語モデルで、指令追従タスクに特化して最適化されており、中国語や英語などの複数の言語をサポートしています。
mlx-community
これはQwen/Qwen3-30B-A3B-Instruct-2507モデルを基に、mlx-lm 0.26.2バージョンを使用して変換されたMLX形式の5ビットDWQ量子化バージョンで、Apple Silicon向けに最適化され、高効率なテキスト生成タスクをサポートします。
ELVISIO
Qwen3-30B-A3B-Instruct-2507-AWQは、Qwen3-30B-A3B-Instruct-2507のAWQ int4量子化バージョンで、総パラメータが305億、活性化パラメータが33億です。このモデルは、命令遵守、論理推論、テキスト理解、数学、科学、コーディング、ツール使用などの分野で著しい改善が見られ、256Kの長いコンテキスト理解能力をサポートし、TransformersとvLLMと互換性があり、効率的にテキスト生成を行うことができます。
cpatonn
Qwen3-30B-A3B-Instruct-2507はアリババクラウドが発表した305億パラメータの混合専門家モデルで、非思考モードを採用し、指示遵守、論理推論、テキスト理解、数学科学、コーディング、ツール使用などの面で優れた性能を発揮し、262Kの長いコンテキストと多言語処理をサポートします。
ramblingpolymath
これはLLM-Compressorを基に、Qwen3-30B-A3B-Instruct-2507をW8A8(8ビットの重みと活性化値)で量子化したバージョンです。FP16バージョンと比べて、メモリ使用量が約50%削減され、対応するハードウェアではより高速な推論速度を実現し、特にAmpere以前のGPUアーキテクチャに適しています。
lmstudio-community
Qwenをベースに開発された30Bパラメータの命令微調整モデルで、MLX 8ビット量子化処理を経て、Apple Siliconチップに特化して最適化され、様々なテキスト生成タスクに適しています。
Qwen3-30B-A3B-Instruct-2507はQwenをベースにした300億パラメータの指令微調整モデルで、Apple Siliconデバイス向けにMLX 4ビット量子化最適化が行われ、効率的なテキスト生成タスクに適しています。
Qwen
Qwen3-30B-A3B-Instruct-2507-FP8は、Qwen3-30B-A3B-FP8の非思考モードの更新バージョンで、汎用能力、長尾知識のカバレッジ、ユーザーの嗜好とのアライメント、長コンテキストの理解などの面で著しい向上が見られ、262,144のネイティブコンテキスト長をサポートしています。
bartowski
これはQwen3-30B-A3B-Instruct-2507モデルの量子化バージョンで、llama.cppツールとimatrix技術を使用して、様々な量子化精度のGGUF形式のファイルを生成し、さまざまなハードウェア環境でこの大規模言語モデルを効率的に実行できるようにします。
Qwen3-30B-A3B-Instruct-2507はアリババの通義千問チームが開発した300億パラメータの大規模言語モデルで、命令追従タスクに特化して最適化されています。このモデルは、テキスト生成や対話インタラクションなど、様々な自然言語処理タスクをサポートし、LM Studioコミュニティモデルプロジェクトを通じて開発者に提供されています。
Qwen3-30B-A3B-Instruct-2507はQwen3-30B-A3Bの非思考モードの更新バージョンで、一般的な能力、希少知識のカバレッジ、ユーザーの嗜好のアライメント、長文脈の理解などの面で著しい向上が見られます。これは305億パラメータの大規模言語モデルで、MoEアーキテクチャを採用し、活性化パラメータは33億です。