上海市黄浦区人民法院は、AIプロンプトが作品の独創性を備えていないと一審で判断し、著作権侵害とはならないとしました。これは上海で初めてのAIプロンプトに関する著作権事件であり、裁判所はプロンプトが独創性を持たないと判断したため、著作権法の保護対象とはならないと述べました。
月の暗面がKimi K2Thinkingモデルを公開・オープンソース化。自律的な思考とツール使用を実現し、ユーザー介入不要で300回のツール呼び出しと多段階思考をサポート。複雑なタスク処理能力が大幅向上。....
昆仑万维SkyReels V3モデルは、Sora2、Veo3.1などの先端AIビデオ技術を統合し、ワンストップ動画作成ツールを提供。開発者のトレンド把握と革新的アプリ開発を支援。....
月の暗面チームがKimi Linearモデルを発表し、AIGC分野で技術的な突破を果たしました。このモデルは混合線形注目構造を採用しており、長文の処理速度が2.9倍に向上し、デコード速度は6倍に向上しています。性能は従来のSoftmax注目機構を上回り、特に文脈処理や強化学習などのシナリオでの表現が優れているとされています。
強力なオープンソースのKimi K2チャットプラットフォームで、Kimi AIはプログラミングと数学のベンチマークテストでGPT-4を上回っています。エンタープライズレベルのKimi AIでコストを95%削減できます。
ソフトウェアエンジニアリングタスク専用のオープンソース コード LLM。
Kimi-Audioは、オーディオの理解と生成に長けたオープンソースのオーディオ基礎モデルです。
マルチモーダル推論機能を備えた、効率的なオープンソースの専門家混合型ビジョン言語モデルです。
moonshotai
$4.1
入力トークン/百万
$16.56
出力トークン/百万
128k
コンテキスト長
moonshot
-
DevQuasar
このプロジェクトは moonshotai/Kimi-K2-Thinking ベースモデルに基づいて、カスタム逆量子化スクリプトを使用して元のINT4モデルをより高品質のテキスト生成モデルに変換し、知識をすべての人に利用可能にすることを目指しています。
inferencerlabs
MLXライブラリに基づいて実装されたテキスト生成モデルで、複数の量子化方式による推論をサポートし、分散計算能力を備え、Appleのハードウェア環境で効率的に動作します。
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
Kimi K2 Thinkingは月の暗面(Moonshot AI)が開発した最新世代のオープンソース思考モデルで、強力な深度推論能力とツール呼び出し機能を備えています。このモデルは混合専門家アーキテクチャを採用し、ネイティブINT4量子化をサポートし、256kのコンテキストウィンドウを持ち、複数のベンチマークテストで優れた性能を発揮します。
これはKimi-Linear-48B-A3B-Instructモデルを変換した6ビット量子化バージョンで、Apple MLXフレームワーク用に最適化されています。このモデルは元のモデルの強力な指令追従能力を保持しながら、量子化技術により格納と計算の要件を大幅に削減し、Appleハードウェアで効率的に動作するのに適しています。
これはmoonshotai/Kimi-Linear-48B-A3B-Instructモデルを変換した4ビット量子化バージョンで、Apple MLXフレームワーク用に最適化され、効率的なテキスト生成能力を提供します。
Kimi Linearは混合線形アテンションアーキテクチャで、短文脈、長文脈、および強化学習拡張メカニズムを含むさまざまなシナリオで、従来の全アテンション方法よりも優れています。従来のアテンションメカニズムが長文脈タスクで抱える効率低下の問題を効果的に解決し、自然言語処理などの分野により効率的な解決策をもたらします。
Kimi Linearは、短い文脈、長い文脈、強化学習のシナリオのすべてで、従来の全アテンション方式を上回る高効率な混合線形アテンションアーキテクチャです。Kimi Delta Attention (KDA)メカニズムによりアテンション計算を最適化し、性能とハードウェア効率を大幅に向上させ、特に100万トークンに達する長文脈タスクの処理に優れています。
anikifoss
これはMoonshot AIのKimi-K2-Instruct-0905モデルの高品質量子化バージョンで、HQ4_K量子化方法を採用し、推論性能を特別に最適化し、75000のコンテキスト長をサポートし、テキスト生成タスクに適しています。
これはmoonshotai/Kimi-K2-Instruct-0905モデルのMLX形式変換バージョンで、革新的なDQ3_K_M動的3ビット量子化技術を採用し、Apple Silicon Macデバイス用に特別に最適化されており、4ビット量子化に近い性能を維持しながら、メモリ使用量を大幅に削減します。
これは moonshotai/Kimi-K2-Instruct-0905 モデルの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。このプロジェクトでは、最適化されたモデルの重みを提供し、さまざまなハードウェアでのデプロイと使用を容易にします。
moonshotai/Kimi-K2-Instruct-0905基礎モデルに基づき、改良版MLX 0.26を使用して動的量子化を行った大規模言語モデルです。革新的な動的量子化戦略により、優れた性能を維持しながらハードウェア要件を大幅に削減し、単一のM3 Ultraデバイスで効率的に実行できます。
ubergarm
これはmoonshotai/Kimi-K2-Instruct-0905モデルのGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適量子化を行っています。このモデルは混合エキスパートアーキテクチャを採用し、中国語対話とテキスト生成タスクをサポートし、さまざまな量子化方案で最適化されており、高品質を維持しながらメモリ使用量を大幅に削減しています。
ssweens
Kimi-VL-A3B-Thinking-2506は月の暗面が開発したマルチモーダル視覚言語モデルで、画像とテキストの統合的な理解と推論をサポートし、思考連鎖推論能力を備え、複雑な視覚言語タスクを処理できます。
AI-MO
Kimina-Prover-Distill-0.6Bは、Project NuminaとKimiチームによって開発された定理証明モデルで、Lean 4における競技スタイルの問題解決能力に特化しています。これはKimina-Prover-72Bモデルの蒸留バージョンで、MiniF2F-testで68.85%の正解率を達成しています。
Kimi-K2 Dynamic MLXはmoonshotai/Kimi-K2-Instructモデルに基づいて構築されたテキスト生成プロジェクトで、最適化されたMLXライブラリを用いて高効率な量子化性能を実現しています。このモデルは単一のM3 Ultra 512GB RAMマシン上で動作し、複数の量子化方式をサポートし、テストで優れた困惑度指標を示しまし。
Kimi - K2 - Instructは、moonshotai/Kimi - K2 - Instructモデルに基づく量子化バージョンであり、知識をより広く大衆に普及させることを目的としています。
prithivMLmods
Project NuminaとKimiチームによって開発された定理証明モデルで、Lean 4における競技スタイルの問題解決能力に特化しています。
Kimi-Dev-72B-8bitは、moonshotai/Kimi-Dev-72Bを変換した8ビット量子化バージョンで、MLXフレームワークに適したテキスト生成モデルです。
Kimi-Dev-72B-4bit-DWQは、moonshotai/Kimi-Dev-72Bを基に変換された4ビット量子化大規模言語モデルで、MLXフレームワークに適しています。