Apple開放FastVLM視覺語言模型,可在搭載Apple Silicon芯片的Mac上體驗。該模型基於MLX框架構建,提供近乎即時的高分辨率圖像處理,視頻字幕處理速度提升85倍,體積縮小3倍以上,支持多平臺和瀏覽器直接使用。
蘋果MLX框架新增CUDA支持引發熱議,這標誌着蘋果對英偉達生態的妥協。面對英偉達在AI領域的統治地位和4萬億美元市值,蘋果調整策略以搶佔市場份額。MLX支持CUDA後,開發者可在英偉達GPU訓練模型後部署到蘋果設備,提升開發效率。此舉既迴應了2018年"禁卡風波"的爭議,也藉助CUDA統一內存機制實現跨平臺部署。蘋果最終選擇擁抱擁有500萬開發者的CUDA生態,展現其在AI領域的戰略轉向。
蘋果MLX框架新增CUDA支持,開發者現可在Apple Silicon設備開發後導出至CUDA環境運行。此舉大幅降低開發成本,小型團隊無需前期購置昂貴Nvidia硬件。由GitHub開發者主導的該項目已併入MLX主分支,雖不支持Mac直接連接Nvidia顯卡運行,但開發測試階段可完全在蘋果設備完成。CUDA環境下性能顯著優於Mac,結合Nvidia硬件在AI領域的優勢,爲開發者提供更強算力支持。這一更新將提升開發靈活性,降低准入門檻。
蘋果MLX框架新增CUDA支持,開發者可在Mac上開發AI應用後無縫遷移至英偉達平臺。這一突破解決了以往MLX依賴Metal框架導致部署受限的問題,由開發者@zcbenz耗時數月完成代碼整合。新功能實現"代碼導出兼容性",讓開發者能以低成本Apple Silicon Mac開發,必要時再使用英偉達硬件部署,顯著降低開發門檻。此舉既保留Apple開發優勢,又拓展部署靈活性,有望推動MLX框架生態擴展。
基於 Apple MLX 框架的視頻字幕生成工具
在Apple Silicon上原生使用MLX框架與數據對話
Graph Neural Network (GNN)庫,為蘋果芯片量身打造
蘋果芯片高效靈活機器學習
Alibaba
$6
輸入tokens/百萬
$24
輸出tokens/百萬
256
上下文長度
$1.6
$4
128
$0.8
$0.2
Iflytek
$8
-
8
$2.4
$9.6
32
Baidu
ExaltedSlayer
Gemma 3是谷歌推出的輕量級開源多模態模型,本版本為12B參數的指令調優量化感知訓練模型,已轉換為MLX框架的MXFP4格式,支持文本和圖像輸入並生成文本輸出,具有128K上下文窗口和140+語言支持。
kyr0
這是一個專為蘋果硅芯片設備優化的自動語音識別模型,通過轉換為MLX框架並量化為FP8格式,實現在蘋果設備上的快速端上語音轉錄。該模型針對逐字精度進行微調,特別適用於需要高精度轉錄的場景。
mlx-community
本模型是基於allenai/Olmo-3-7B-Instruct轉換的8位量化版本,專門為Apple MLX框架優化。它是一個70億參數的大型語言模型,支持指令跟隨和對話任務。
VibeThinker-1.5B的4位量化版本,基於MLX框架針對蘋果芯片優化,是一個擁有15億參數的密集語言模型,專門用於數學推理和算法編碼問題
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLX 是一款用於文本生成的量化模型,通過不同的量化方式在測試中取得不同的困惑度表現,其中q3.825bit量化能達到1.256的困惑度。
Leohan
基於MLX庫開發的文本生成模型,專注於自然語言處理任務,為開發者提供高效的文本生成解決方案。
基於MLX庫實現的文本生成模型,支持多種量化方式推理,具備分佈式計算能力,可在蘋果硬件環境下高效運行。
Kimi-K2-Thinking 是由 mlx-community 從 moonshotai 原版模型轉換而來的 MLX 格式大語言模型,採用 mlx-lm 0.28.4 版本進行轉換,保留了原模型的思維鏈推理能力。
Marvis-AI
這是一個基於MLX框架優化的文本轉語音模型,從原始模型Marvis-AI/marvis-tts-100m-v0.2轉換而來,採用6位量化技術,專門為Apple Silicon硬件優化,提供高效的語音合成能力。
Qwen3-Coder-480B-A35B-Instruct是一個4800億參數的大型代碼生成模型,支持8.5bit量化,基於MLX框架優化。該模型專門針對代碼生成任務設計,在配備足夠內存的設備上能夠高效運行。
catalystsec
本項目對MiniMax-M2模型進行4位量化處理,使用DWQ(動態權重量化)方法,藉助mlx-lm庫達成。該模型是MiniMax-M2的輕量化版本,在保持較好性能的同時大幅減小模型體積。
這是一個基於 Kimi-Linear-48B-A3B-Instruct 模型轉換的 6 位量化版本,專為 Apple MLX 框架優化。該模型保留了原模型強大的指令跟隨能力,同時通過量化技術顯著降低了存儲和計算需求,適合在 Apple 硬件上高效運行。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的視覺語言模型,基於2B參數規模,使用MLX進行8位量化,專門針對Apple Silicon芯片進行了優化。該模型支持圖像和文本的多模態理解與生成任務。
這是基於moonshotai/Kimi-Linear-48B-A3B-Instruct模型轉換的4位量化版本,專為Apple MLX框架優化,提供高效的文本生成能力
本項目是使用 mlx-lm 庫通過動態權重量化(DWQ)將 MiniMax-M2 模型量化為 3 位的成果。它能夠在資源受限的條件下,高效地進行文本生成任務,為相關應用提供了更輕量級的解決方案。
這是MiniMax-M2模型的MLX格式轉換版本,使用mlx-lm 0.28.1從原始模型轉換而來,支持8位量化和分組大小為32的優化配置,專為Apple Silicon設備優化運行。
MiniMax-M2 6.5bit MLX是基於MiniMax-M2模型的量化版本,在文本生成任務中表現出色,支持多種量化級別,其中q6.5bit量化在測試中能達到1.128的困惑度,與q8相當。
MiniMax-M2-5bit 是基於 MiniMaxAI/MiniMax-M2 模型轉換而來的 5 位量化版本,專為 MLX 框架優化。該模型是一個大型語言模型,支持文本生成任務,採用 MIT 許可證發佈。
Gemma 3 27B IT QAT的MLX MXFP4量化版本,是由Google開發的輕量級開源多模態模型。該模型能夠同時處理文本和圖像輸入並生成文本輸出,擁有128K大上下文窗口,支持超過140種語言,適用於多種文本生成和圖像理解任務。
這是MiniMax-M2模型的MLX格式8位量化版本,使用mlx-lm 0.28.4從原始模型轉換而來,專為Apple Silicon設備優化運行。
一個基於MLX Whisper的音頻轉錄MCP服務,支持本地文件、Base64音頻和YouTube視頻轉錄,專為蘋果M系列芯片優化。
項目摘要