MaziyarPanahi
このプロジェクトでは、Qwen3-4B-Thinking-2507モデルのGGUF形式のファイルを提供しています。これは、思考過程推論能力を持つ4Bパラメータの大規模言語モデルで、複数の量子化バージョンをサポートし、さまざまなハードウェアでのデプロイと実行が容易です。
TeichAI
このモデルはQwen3 - 4Bアーキテクチャに基づく知識蒸留モデルで、Gemini 2.5 Flashによって生成された約5440万個のトークンを使用してトレーニングされ、Gemini - 2.5 Flashの振る舞い、推論プロセス、知識を単一のデータセットに統合することを目的としています。
magiccodingman
これはQwen3 4Bモデルに基づく混合量子化バージョンで、MXFP4_MOE混合重み技術を採用し、ほぼ無損な精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しました。このモデルは、MXFP4と高精度の埋め込み/出力重みを精巧に組み合わせることで、Q8量子化に近い精度レベルを達成し、同時にQ4 - Q6レベルのスループットを備えています。
このモデルはQwen3-4B-Thinking-2507をベースに、GPT-5-Codexの1000個のサンプルで微調整され、テキスト生成タスクに特化しており、Unsloth技術を使用してトレーニング速度を2倍に向上させています。
ggml-org
これはQwen/Qwen3-4B-Thinking-2507モデルから変換されたGGUF形式のバージョンで、Q8_0量子化を採用し、llama.cppと互換性があります。このモデルは思考過程の推論能力を持ち、パラメータ数は40億です。
gabriellarson
Qwen3-4B-Thinking-2507をベースに微調整された専門のデータサイエンスエージェントモデルで、Jupyterノートブック環境に特化して最適化されており、Pythonコードを実行し、データセットを分析し、段階的な推論を行うことができます。
ertghiu256
これはQwen3-4B-Thinking-2507ベースモデルに基づいて、TIES方法を通じて複数の微調整モデルをマージして得られた強化型言語モデルで、コード生成と数学推論能力の向上に特化し、同時に優れた汎用言語理解能力を維持しています。
これはQwen3-4B-Thinking-2507モデルに基づいて、TIES方法を通じて複数のQwen3微調整モデルをマージして得られた強化型言語モデルで、コード生成と数学的推論能力を特別に最適化しています。
unsloth
Qwen3-4B-Thinking-2507はQwen3-4Bモデルのアップグレード版で、思考能力、推論品質と深度を大幅に向上させ、様々なタスクで優れた性能を発揮し、256Kの長文脈理解をサポートします。
cpatonn
Qwen3-4B-Thinking-2507-AWQは、Qwen3-4B-Thinking-2507ベースモデルを量子化処理したバージョンで、推論、コーディング、多言語などの複数のタスクで優れた性能を発揮し、思考能力と長文脈理解能力が大幅に向上しています。
mlx-community
これはQwen3-4B-Thinking-2507モデルの4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。元のモデルはQwenチームによって開発された40億パラメータの大規模言語モデルで、思考過程の推論能力を備え、さまざまな自然言語処理タスクをサポートしています。