AppleがFastVLM視覚言語モデルを公開。Apple Silicon搭載Macで動作し、高解像度画像処理が可能。MLXフレームワークベースで、ビデオ字幕処理速度85倍向上、サイズ3分の1以下に。マルチプラットフォーム・ブラウザ対応。....
AppleのMLXフレームワークがCUDAサポートを追加し、NVIDIA生態系への歩み寄りを示した。AI市場での優位性確保のため、開発者がNVIDIA GPUで訓練したモデルをAppleデバイスに展開可能に。500万人の開発者を抱えるCUDA生態系への戦略転換。....
AppleのMLXフレームワークがCUDA対応を追加、Macで開発したAIアプリをNVIDIAプラットフォームに移行可能に。Metal依存の制限を解消し、開発コスト削減と展開柔軟性を実現。....
説明はありません
Apple MLXフレームワークに基づいたビデオ字幕生成ツール
Apple Silicon上でMLXフレームワークを用いたネイティブなデータ対話を実現します。
Appleチップ向けに設計されたグラフニューラルネットワーク(GNN)ライブラリ
Appleチップによる高効率かつ柔軟な機械学習
Leohan
MLXライブラリに基づいて開発されたテキスト生成モデルで、自然言語処理タスクに特化し、開発者に効率的なテキスト生成ソリューションを提供します。
inferencerlabs
MLXライブラリに基づいて実装されたテキスト生成モデルで、複数の量子化方式による推論をサポートし、分散計算能力を備え、Appleのハードウェア環境で効率的に動作します。
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
Marvis-AI
これはMLXフレームワークに基づいて最適化されたテキスト音声変換モデルで、元のモデルMarvis-AI/marvis-tts-100m-v0.2から変換され、6ビット量子化技術を採用し、Apple Siliconハードウェア用に特別に最適化され、効率的な音声合成能力を提供します。
Qwen3-Coder-480B-A35B-Instructは4800億パラメータの大型コード生成モデルで、8.5ビット量子化をサポートし、MLXフレームワークに基づいて最適化されています。このモデルはコード生成タスクに特化して設計されており、十分なメモリを搭載したデバイス上で効率的に動作します。
catalystsec
このプロジェクトでは、MiniMax - M2モデルを4ビット量子化処理し、DWQ(動的重み量子化)方法を使用し、mlx - lmライブラリを介して達成します。このモデルはMiniMax - M2の軽量化バージョンで、良好な性能を維持しながらモデルサイズを大幅に削減します。
これはKimi-Linear-48B-A3B-Instructモデルを変換した6ビット量子化バージョンで、Apple MLXフレームワーク用に最適化されています。このモデルは元のモデルの強力な指令追従能力を保持しながら、量子化技術により格納と計算の要件を大幅に削減し、Appleハードウェアで効率的に動作するのに適しています。
lmstudio-community
Qwen3-VL-2B-ThinkingはQwenによって開発された視覚言語モデルで、2Bのパラメータ規模を持ち、MLXを使用して8ビット量子化が行われ、Apple Siliconチップに特化した最適化が施されています。このモデルは画像とテキストのマルチモーダル理解と生成タスクをサポートしています。
これはmoonshotai/Kimi-Linear-48B-A3B-Instructモデルを変換した4ビット量子化バージョンで、Apple MLXフレームワーク用に最適化され、効率的なテキスト生成能力を提供します。
このプロジェクトは、mlx-lm ライブラリを使用して、動的重み量子化(DWQ)により MiniMax-M2 モデルを 3 ビットに量子化した成果物です。リソースが制限された条件下でも、効率的にテキスト生成タスクを実行でき、関連アプリケーションにより軽量なソリューションを提供します。
これはMiniMax-M2モデルのMLX形式への変換バージョンで、mlx-lm 0.28.1を使用して元のモデルから変換され、8ビット量子化とグループサイズ32の最適化設定をサポートし、Apple Siliconデバイスでの実行に最適化されています。
MiniMax - M2 6.5ビットMLXは、MiniMax - M2モデルに基づく量子化バージョンで、テキスト生成タスクで優れた性能を発揮し、複数の量子化レベルをサポートします。そのうち、q6.5ビット量子化はテストで1.128の困惑度を達成し、q8と同等です。
MiniMax-M2-5bitは、MiniMaxAI/MiniMax-M2モデルから変換された5ビット量子化バージョンで、MLXフレームワーク用に最適化されています。このモデルは大規模言語モデルで、テキスト生成タスクをサポートし、MITライセンスで公開されています。
これはMiniMax-M2モデルのMLX形式の8ビット量子化バージョンで、mlx-lm 0.28.4を使用してオリジナルモデルから変換され、Apple Siliconデバイスでの実行に最適化されています。
Granite-4.0-H-1B-8bitはIBM Graniteシリーズの小型言語モデルで、Apple Siliconチップ向けに特別に最適化され、8ビット量子化技術を採用し、パラメータ数は1Bで、効率的な推論と低リソース消費の特徴を持っています。
MiniMax-M2-6bitは、MiniMaxAI/MiniMax-M2モデルのMLX形式変換バージョンで、mlx-lm 0.28.4を使用して変換され、Apple Siliconデバイスでの効率的な実行をサポートします。
MiniMax-M2-4bitは、mlx-lmツールを使用してMiniMaxAI/MiniMax-M2から変換された4ビット量子化バージョンで、Apple Siliconチップに特化して最適化されており、効率的なテキスト生成能力を提供します。
DeepSeek-OCR-8bitは、DeepSeek-OCRモデルを変換したMLX形式のバージョンで、Appleチップに特化して最適化されたビジュアル言語モデルで、多言語OCR認識と画像テキスト理解タスクをサポートします。
quocnguyen
このモデルはDeepSeek-OCRを基に変換されたMLX形式のビジュアル言語モデルで、光学文字認識(OCR)タスクに特化しており、多言語のテキスト認識と画像理解をサポートします。
これはDeepSeek-OCRモデルを変換したMLX形式のモデルで、多言語の画像テキスト認識とテキスト生成機能をサポートし、OCRタスクに特化して最適化されています。
MLX Whisperをベースとした音声文字起こしMCPサーバーで、ローカルファイル、Base64オーディオ、YouTube動画の文字起こしに対応。AppleのMシリーズチップ用に最適化されています。
プロジェクトの要約