説明はありません
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
catalystsec
このプロジェクトは、mlx-lm ライブラリを使用して、動的重み量子化(DWQ)により MiniMax-M2 モデルを 3 ビットに量子化した成果物です。リソースが制限された条件下でも、効率的にテキスト生成タスクを実行でき、関連アプリケーションにより軽量なソリューションを提供します。
これはMiniMax-M2モデルのMLX形式への変換バージョンで、mlx-lm 0.28.1を使用して元のモデルから変換され、8ビット量子化とグループサイズ32の最適化設定をサポートし、Apple Siliconデバイスでの実行に最適化されています。
これはMiniMax-M2モデルのMLX形式の8ビット量子化バージョンで、mlx-lm 0.28.4を使用してオリジナルモデルから変換され、Apple Siliconデバイスでの実行に最適化されています。
MiniMax-M2-6bitは、MiniMaxAI/MiniMax-M2モデルのMLX形式変換バージョンで、mlx-lm 0.28.4を使用して変換され、Apple Siliconデバイスでの効率的な実行をサポートします。
MiniMax-M2-4bitは、mlx-lmツールを使用してMiniMaxAI/MiniMax-M2から変換された4ビット量子化バージョンで、Apple Siliconチップに特化して最適化されており、効率的なテキスト生成能力を提供します。
nightmedia
これはQwen3-Coder-REAP-25B-A3Bモデルを変換したMLX形式のバージョンで、mlx-lmツールを使用して元のモデルから変換され、Apple Siliconチップに特化して最適化され、効率的なテキスト生成タスクをサポートします。
SiddhJagani
これはOpenAI GPT-OSS-20BモデルのMLX形式の8ビット量子化バージョンで、mlx-lm 0.28.2を使用して変換され、Apple Silicon用に最適化され、効率的なテキスト生成能力を提供します。
これはByteDanceのSeed-OSS-36B-InstructモデルをDWQ量子化で4ビットにした軽量化バージョンで、mlx-lm 0.27.1を使用してBF16教師モデルから蒸留され、中英バイリンガルのテキスト生成タスクをサポートしています。
abnormalmapstudio
これはQwen3-Omni-30B-A3B-ThinkingモデルのMLX形式への変換バージョンで、mlx-lm 0.28.1を使用して変換され、Apple Siliconデバイスでの効率的な実行をサポートします。
これはQwen3-Omni-30B-A3B-Instructモデルを変換したMLX形式のバージョンで、mlx-lm 0.28.1ツールを使用して変換され、Apple Silicon向けに最適化されており、効率的なテキスト生成タスクをサポートします。
これはGLM-4.6モデルの5ビット量子化バージョンで、mlx-lmツールを使用して変換され、Apple Siliconデバイス用に最適化され、大規模言語モデルの効率的な推論能力を提供します。
GLM-4.6-4bitは、zai-org/GLM-4.6モデルをmlx-lmツールを使って変換した4ビット量子化バージョンで、Apple Siliconチップに特化して最適化されており、英語と中国語のテキスト生成タスクをサポートしています。
cs2764
このモデルは、moonshotaiのKimi-K2-Instruct-0905モデルをmlx-lm 0.28.0バージョンで変換したMLX形式のバージョンです。3ビット量子化技術を採用し、グループサイズは32で、平均して各重みは4.002ビットしか占めず、Appleデバイスでのモデルの実行効率を最適化しています。
NexVeridian
これはQwen3-Next-80B-A3B-Thinkingモデルの3ビット量子化MLX形式バージョンで、Apple Siliconデバイス向けに最適化され、mlx-lm 0.27.1ツールを使用して変換され、元のモデルの強力な推論能力を維持しながら、モデルサイズを大幅に縮小しています。
このモデルは、Qwen/Qwen3-Next-80B-A3B-Instructの元モデルをmlx-lm 0.28.0バージョンを使用して変換した4ビット量子化MLX形式のモデルで、Appleチップ用に最適化され、効率的なテキスト生成タスクをサポートします。
これはQwen3-Next-80B-A3B-Instructモデルをmlx-lm 0.27.1バージョンで変換したMLX形式のモデルで、Apple Siliconハードウェア向けに最適化され、効率的なテキスト生成タスクをサポートします。
これは百度のERNIE-4.5-21B-A3B-ThinkingモデルのMLX形式変換バージョンで、mlx-lm 0.27.1ツールを使用して変換され、Apple Siliconデバイス用に最適化され、効率的な推論をサポートします。
Ling-mini-2.0-4bitは、inclusionAI/Ling-mini-2.0モデルをmlx-lm 0.27.1バージョンで変換した4ビット量子化バージョンで、Apple Silicon用に最適化された高効率言語モデルです。
これはOpenAIのGPT-OSS-120Bモデルを変換したMLX形式のバージョンで、mlx-lm 0.27.0ツールを使用して変換され、効率的なテキスト生成タスクをサポートします。