DevQuasar
このプロジェクトは moonshotai/Kimi-K2-Thinking ベースモデルに基づいて、カスタム逆量子化スクリプトを使用して元のINT4モデルをより高品質のテキスト生成モデルに変換し、知識をすべての人に利用可能にすることを目指しています。
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
これはMoonshot AI技術に基づく量子化バージョンのモデルで、ビジュアル言語の理解と生成タスクに特化しており、知識の取得障壁を低くし、知識を誰もが利用できるようにすることを目指しています。
moonshotai
Kimi K2 Thinkingは月の暗面(Moonshot AI)が開発した最新世代のオープンソース思考モデルで、強力な深度推論能力とツール呼び出し機能を備えています。このモデルは混合専門家アーキテクチャを採用し、ネイティブINT4量子化をサポートし、256kのコンテキストウィンドウを持ち、複数のベンチマークテストで優れた性能を発揮します。
これはmoonshotai/Kimi-Linear-48B-A3B-Instructモデルを変換した4ビット量子化バージョンで、Apple MLXフレームワーク用に最適化され、効率的なテキスト生成能力を提供します。
Kimi Linearは混合線形アテンションアーキテクチャで、短文脈、長文脈、および強化学習拡張メカニズムを含むさまざまなシナリオで、従来の全アテンション方法よりも優れています。従来のアテンションメカニズムが長文脈タスクで抱える効率低下の問題を効果的に解決し、自然言語処理などの分野により効率的な解決策をもたらします。
Kimi Linearは、短い文脈、長い文脈、強化学習のシナリオのすべてで、従来の全アテンション方式を上回る高効率な混合線形アテンションアーキテクチャです。Kimi Delta Attention (KDA)メカニズムによりアテンション計算を最適化し、性能とハードウェア効率を大幅に向上させ、特に100万トークンに達する長文脈タスクの処理に優れています。
これはmoonshotai/Kimi-K2-Instruct-0905モデルのMLX形式変換バージョンで、革新的なDQ3_K_M動的3ビット量子化技術を採用し、Apple Silicon Macデバイス用に特別に最適化されており、4ビット量子化に近い性能を維持しながら、メモリ使用量を大幅に削減します。
これは moonshotai/Kimi-K2-Instruct-0905 モデルの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。このプロジェクトでは、最適化されたモデルの重みを提供し、さまざまなハードウェアでのデプロイと使用を容易にします。
inferencerlabs
moonshotai/Kimi-K2-Instruct-0905基礎モデルに基づき、改良版MLX 0.26を使用して動的量子化を行った大規模言語モデルです。革新的な動的量子化戦略により、優れた性能を維持しながらハードウェア要件を大幅に削減し、単一のM3 Ultraデバイスで効率的に実行できます。
ubergarm
これはmoonshotai/Kimi-K2-Instruct-0905モデルのGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適量子化を行っています。このモデルは混合エキスパートアーキテクチャを採用し、中国語対話とテキスト生成タスクをサポートし、さまざまな量子化方案で最適化されており、高品質を維持しながらメモリ使用量を大幅に削減しています。
Kimi-K2 Dynamic MLXはmoonshotai/Kimi-K2-Instructモデルに基づいて構築されたテキスト生成プロジェクトで、最適化されたMLXライブラリを用いて高効率な量子化性能を実現しています。このモデルは単一のM3 Ultra 512GB RAMマシン上で動作し、複数の量子化方式をサポートし、テストで優れた困惑度指標を示しまし。
Kimi - K2 - Instructは、moonshotai/Kimi - K2 - Instructモデルに基づく量子化バージョンであり、知識をより広く大衆に普及させることを目的としています。
Kimi-Dev-72B-8bitは、moonshotai/Kimi-Dev-72Bを変換した8ビット量子化バージョンで、MLXフレームワークに適したテキスト生成モデルです。
Kimi-Dev-72B-4bit-DWQは、moonshotai/Kimi-Dev-72Bを基に変換された4ビット量子化大規模言語モデルで、MLXフレームワークに適しています。
Kimi K2は、320億のアクティブパラメータと1兆の総パラメータを持つ、高度なハイブリッドエキスパート(MoE)言語モデルで、エージェント能力に対して最適化されています。
Kimi-K2-Instruct-4bitは、moonshotai/Kimi-K2-Instructから変換された4bit量子化モデルで、MLXフレームワークに適しています。
Kimi-Dev-72B-4bitは、moonshotai/Kimi-Dev-72Bを基に変換された4ビット量子化の大規模言語モデルで、MLXフレームワーク用に最適化されています。
Kimi-Dev-72B-5bitは、moonshotai/Kimi-Dev-72Bから変換された5ビット量子化の大規模言語モデルで、AppleデバイスのMLXフレームワークに適しています。
Kimi K2は、320億のアクティブパラメータと1兆の総パラメータを持つ、高度な混合専門家(MoE)言語モデルで、エージェント能力に対して最適化されています。