Qwen3-30B-A3Bモデルは大きなアップデートを受け、新バージョンのQwen3-30B-A3B-Thinking-2507がリリースされました。この新しいバージョンは、推論能力、汎用性、および文脈の長さにおいて大幅な向上を遂げており、このモデルがより軽量でありながらも強力な思考能力を持つことを示しています。
4月29日にオープンソース化されたQwen3-30-A3Bモデルと比較して、新モデルは多くの重要な分野で進歩を遂げています。数学的能力において、Qwen3-30B-A3B-Thinking-2507はAIME25評価で85.0という高いスコアを記録し、これはGemini2.5-Flash(thinking)やQwen3-235B-A22B(thinking)を上回っています。コード能力テストのLiveCodeBench v6では、新モデルは66.0という高いスコアを達成し、プログラミング分野における強大な能力を示しています。また、知識レベル(GPQA、MMLU-Pro)においても、前のバージョンよりも顕著な向上が見られます。
数学やコード能力の強化に加え、Qwen3-30B-A3B-Thinking-2507は汎用能力においても全面的なアップグレードを実現しました。ライティング(WritingBench)、エージェント能力(BFCL-v3)、複数ラウンドの会話および多言語指示の遵守(MultiIF)などの汎用能力評価において、新モデルはGemini2.5-Flash(thinking)やQwen3-235B-A22B(thinking)を上回り、自然言語の理解と生成における優れた能力を示しています。
また、新モデルの文脈理解能力も大幅に向上しており、256Kトークンをネイティブにサポートし、最大1Mトークンまで拡張可能です。この改善により、Qwen3-30B-A3B-Thinking-2507はより長いテキスト入力を処理できるようになり、複雑なテキストの理解と生成に最適です。さらに、新モデルの「思考長」も増加しており、開発チームは高度な複雑な推論タスクにおいてより長い思考予算を設定することを推奨しています。
開発者や研究者がこの新しいバージョンを使用・テストしやすいように、Qwen3-30B-A3B-Thinking-2507は魔搭コミュニティとHuggingFaceでオープンソース化されています。軽量なサイズにより、このモデルは消費向けハードウェアでのローカル配置が容易です。また、開発チームはQwen Chatでも新モデルを同時にリリースしており、開発者の皆様にはぜひ体験していただき、その強力な推論と生成能力をご確認ください。