ARグラスがMLLM-SCフレームワークで10ミリ秒以内に意味的注意マップを生成し、重要目標を優先的にマーク。意味エンジンがマルチモーダルデータを選別し、6Gネットワークの30%帯域幅を解放。エッジサーバーと連携して応答効率を向上。....
ワーナー・ブラザース・ディスカバリーはAWS GravitonプロセッサとAmazon SageMakerを活用し、AI/ML推論インフラを最適化。コスト削減とパフォーマンス向上を実現したメディアエンターテインメント企業。....
AppleがFastVLM視覚言語モデルを公開。Apple Silicon搭載Macで動作し、高解像度画像処理が可能。MLXフレームワークベースで、ビデオ字幕処理速度85倍向上、サイズ3分の1以下に。マルチプラットフォーム・ブラウザ対応。....
説明はありません
AI/MLモデルの監視と管理を目的としたツールです。
世界最安値のGPUクラウドサービスを提供し、自己ホスト型AI/ML開発を支援します。
MLGymは、AI研究エージェントの発展を促進するための新しいフレームワークとベンチマークです。
FlashMLAはHopper GPU向けに最適化された、高効率なMLAデコードカーネルです。可変長シーケンスサービスに適しています。
ExaltedSlayer
Gemma 3はGoogleが開発した軽量オープンソースのマルチモーダルモデルです。このバージョンは12Bパラメータの命令調整量子化感知トレーニングモデルで、MLXフレームワークのMXFP4形式に変換されています。テキストと画像の入力をサポートし、テキスト出力を生成します。128Kのコンテキストウィンドウと140種類以上の言語をサポートしています。
kyr0
これはAppleシリコンチップデバイス用に最適化された自動音声認識モデルで、MLXフレームワークに変換し、FP8形式に量子化することで、Appleデバイス上での高速なエッジ上の音声文字起こしを実現します。このモデルは逐語的な精度に合わせて微調整されており、高精度の文字起こしが必要なシーンに特に適しています。
ubergarm
これはai-sage/GigaChat3-10B-A1.8B-bf16モデルのGGUF量子化バージョンで、高精度のQ8_0から極度に圧縮されたsmol-IQ1_KTまで、さまざまな量子化オプションを提供し、さまざまなハードウェア条件でのデプロイメントニーズを満たします。このモデルは32Kのコンテキスト長をサポートし、MLAアーキテクチャを採用し、対話シナリオに最適化されています。
mlx-community
このモデルは、allenai/Olmo-3-7B-Instructを基に変換された8ビット量子化バージョンで、Apple MLXフレームワーク用に特別に最適化されています。これは70億パラメータの大規模言語モデルで、命令追従と対話タスクをサポートします。
VibeThinker-1.5Bの4ビット量子化バージョンで、MLXフレームワークに基づいてAppleチップ向けに最適化されており、15億のパラメータを持つ密集型言語モデルで、数学的推論とアルゴリズムコーディングの問題に特化しています。
ai-sage
GigaChat3-10B-A1.8B-baseはGigaChatシリーズの基礎事前学習モデルで、混合エキスパート(MoE)アーキテクチャを採用し、総パラメータは100億、アクティブなパラメータは18億です。モデルはマルチヘッド潜在的注意機構(MLA)と多トークン予測(MTP)技術を統合し、推論時に高いスループットの利点を持ちます。
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLXは、テキスト生成に使用される量子化モデルで、異なる量子化方式を通じてテストで異なる困惑度の結果を得ています。そのうち、q3.825ビット量子化では1.256の困惑度を達成できます。
Ali-Yaser
このモデルはmeta-llama/Llama-3.3-70B-Instructをベースに微調整したバージョンで、mlabonne/FineTome-100kデータセットを使用してトレーニングされ、100kトークンのデータを含んでいます。モデルはUnslothとHuggingface TRLライブラリを使用して微調整され、英語の言語処理をサポートしています。
Leohan
MLXライブラリに基づいて開発されたテキスト生成モデルで、自然言語処理タスクに特化し、開発者に効率的なテキスト生成ソリューションを提供します。
MLXライブラリに基づいて実装されたテキスト生成モデルで、複数の量子化方式による推論をサポートし、分散計算能力を備え、Appleのハードウェア環境で効率的に動作します。
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
Marvis-AI
これはMLXフレームワークに基づいて最適化されたテキスト音声変換モデルで、元のモデルMarvis-AI/marvis-tts-100m-v0.2から変換され、6ビット量子化技術を採用し、Apple Siliconハードウェア用に特別に最適化され、効率的な音声合成能力を提供します。
Qwen3-Coder-480B-A35B-Instructは4800億パラメータの大型コード生成モデルで、8.5ビット量子化をサポートし、MLXフレームワークに基づいて最適化されています。このモデルはコード生成タスクに特化して設計されており、十分なメモリを搭載したデバイス上で効率的に動作します。
catalystsec
このプロジェクトでは、MiniMax - M2モデルを4ビット量子化処理し、DWQ(動的重み量子化)方法を使用し、mlx - lmライブラリを介して達成します。このモデルはMiniMax - M2の軽量化バージョンで、良好な性能を維持しながらモデルサイズを大幅に削減します。
これはKimi-Linear-48B-A3B-Instructモデルを変換した6ビット量子化バージョンで、Apple MLXフレームワーク用に最適化されています。このモデルは元のモデルの強力な指令追従能力を保持しながら、量子化技術により格納と計算の要件を大幅に削減し、Appleハードウェアで効率的に動作するのに適しています。
lmstudio-community
Qwen3-VL-2B-ThinkingはQwenによって開発された視覚言語モデルで、2Bのパラメータ規模を持ち、MLXを使用して8ビット量子化が行われ、Apple Siliconチップに特化した最適化が施されています。このモデルは画像とテキストのマルチモーダル理解と生成タスクをサポートしています。
これはmoonshotai/Kimi-Linear-48B-A3B-Instructモデルを変換した4ビット量子化バージョンで、Apple MLXフレームワーク用に最適化され、効率的なテキスト生成能力を提供します。
このプロジェクトは、mlx-lm ライブラリを使用して、動的重み量子化(DWQ)により MiniMax-M2 モデルを 3 ビットに量子化した成果物です。リソースが制限された条件下でも、効率的にテキスト生成タスクを実行でき、関連アプリケーションにより軽量なソリューションを提供します。
これはMiniMax-M2モデルのMLX形式への変換バージョンで、mlx-lm 0.28.1を使用して元のモデルから変換され、8ビット量子化とグループサイズ32の最適化設定をサポートし、Apple Siliconデバイスでの実行に最適化されています。
MiniMax - M2 6.5ビットMLXは、MiniMax - M2モデルに基づく量子化バージョンで、テキスト生成タスクで優れた性能を発揮し、複数の量子化レベルをサポートします。そのうち、q6.5ビット量子化はテストで1.128の困惑度を達成し、q8と同等です。
このプロジェクトは、MLflow Prompt RegistryにMCPプロトコルのサポートサービスを提供し、MLflowからプロンプトテンプレートを取得して管理する機能を実現します。主にClaude Desktopで事前設定されたプロンプトを簡単に呼び出すために使用されます。
MLX Whisperをベースとした音声文字起こしMCPサーバーで、ローカルファイル、Base64オーディオ、YouTube動画の文字起こしに対応。AppleのMシリーズチップ用に最適化されています。
このプロジェクトは、Model Context Protocol (MCP)を通じてMLflowに自然言語インターフェースを提供し、ユーザーが英語で機械学習の実験とモデルをクエリして管理できるようにします。サーバー側とクライアント側のコンポーネントが含まれています。
MCPプロトコルに基づくMLBデータサービスで、チーム順位、日程、選手情報などの包括的な野球統計データへのアクセスを提供し、AIアプリケーションの統合をサポートします。
Balldontlie APIに基づくMCPサービスの実装で、NBA、NFL、MLBの選手、チーム、試合情報の照会機能を提供します。
MLflow Prompt RegistryのMCPサーバーは、MLflowからPromptテンプレートにアクセスして管理することを実現します。
PromptLab は、MLflow を統合することで、基本的なユーザークエリを AI システムのプロンプトに最適化し、動的なテンプレートマッチングとパラメーター抽出機能を提供するインテリジェントシステムです。
Model Context Protocol(MCP)に基づくサーバープロジェクトです。MLB Stats APIとpybaseballライブラリを通じて野球統計データへのアクセスを提供します。Statcast、Fangraphs、Baseball Referenceなどのデータソースを含み、データの可視化もサポートしています。
このプロジェクトは、自然言語インターフェースを通じてMLflowにモデルコンテキストプロトコル(MCP)サービスを提供し、機械学習の実験とモデルの管理と照会を簡素化します。
MCPプロトコルに互換性のあるサーバープロジェクトで、ASE、pymatgen、および機械学習原子間ポテンシャル(MLIPs)を通じて原子スケールのシミュレーション機能を提供しています。現在積極的に開発中です。
PythonベースのMLモデルの溯源管理サービスで、FastAPIとSQLAlchemyを使用して構築され、データセット管理、エンティティ追跡、アクティビティログ、プロキシ管理、および溯源関係追跡などの機能を提供します。
プロジェクトの要約
Cloudera MLモデル制御プロトコル(MCP)はPythonのツールキットで、Cloudera機械学習プラットフォームとの統合機能を提供します。ファイル管理、ジョブスケジューリング、モデル管理、実験追跡などのサービスが含まれます。
MCPフレームワークに基づくMLBデータAPIラッピングサービスで、試合日程、試合結果、チーム情報、選手照会などの機能を提供します。
MCP Serversは、モデルコンビネーションプラットフォーム(MCP)のサーバーとサービスの集合で、さまざまなAI/MLモデルとサービスの統合とデプロイを促進することを目的としています。このプロジェクトはモジュール化アーキテクチャを採用し、標準化された通信と拡張可能な設計をサポートし、天気サービスなどの複数のサーバータイプを含んでいます。
制御されたコマンドライン操作を実行するための安全なMCPサーバー実装で、コマンドホワイトリスト、パス検証、実行制御などの包括的なセキュリティ機能を提供します。
このプロジェクトは、自然言語インターフェースを通じてMLflowに対話機能を提供し、サーバーとクライアントのコンポーネントを含み、実験照会、モデル登録、およびシステム情報の照会をサポートし、MLflowの管理操作を簡素化します。
Claude AIのドキュメント検索能力を強化するMCPサーバープロジェクトで、複数のAI/MLライブラリのドキュメント検索をサポートし、Claudeの推論能力とインテリジェントなウェブ検索を統合しています。
mcp-server-suiteは、自動化分野の「HuggingFace」を目指すオープンソースのMCPサーバーコレクションです。モジュール化されたサーバーコンポーネントを提供し、ウェブ検索からデータベース操作までのさまざまな機能をサポートし、コミュニティの貢献による拡張を促進します。プロジェクトにはコアサーバーと計画中のさまざまな専門サービスが含まれ、AI/ML、ソフトウェア開発、非技術的なシナリオをカバーし、標準化されたプロトコルによって自動化プロセスを簡素化することを目指しています。
Claude AIを統合したドキュメント検索アシスタントで、MCPサーバーによりClaudeのドキュメント検索能力を強化し、複数のAI/MLライブラリのドキュメントのスマートな検索と説明をサポートします。