Apple開放FastVLM視覺語言模型,可在搭載Apple Silicon芯片的Mac上體驗。該模型基於MLX框架構建,提供近乎即時的高分辨率圖像處理,視頻字幕處理速度提升85倍,體積縮小3倍以上,支持多平臺和瀏覽器直接使用。
蘋果MLX框架新增CUDA支持引發熱議,這標誌着蘋果對英偉達生態的妥協。面對英偉達在AI領域的統治地位和4萬億美元市值,蘋果調整策略以搶佔市場份額。MLX支持CUDA後,開發者可在英偉達GPU訓練模型後部署到蘋果設備,提升開發效率。此舉既迴應了2018年"禁卡風波"的爭議,也藉助CUDA統一內存機制實現跨平臺部署。蘋果最終選擇擁抱擁有500萬開發者的CUDA生態,展現其在AI領域的戰略轉向。
蘋果MLX框架新增CUDA支持,開發者現可在Apple Silicon設備開發後導出至CUDA環境運行。此舉大幅降低開發成本,小型團隊無需前期購置昂貴Nvidia硬件。由GitHub開發者主導的該項目已併入MLX主分支,雖不支持Mac直接連接Nvidia顯卡運行,但開發測試階段可完全在蘋果設備完成。CUDA環境下性能顯著優於Mac,結合Nvidia硬件在AI領域的優勢,爲開發者提供更強算力支持。這一更新將提升開發靈活性,降低准入門檻。
蘋果MLX框架新增CUDA支持,開發者可在Mac上開發AI應用後無縫遷移至英偉達平臺。這一突破解決了以往MLX依賴Metal框架導致部署受限的問題,由開發者@zcbenz耗時數月完成代碼整合。新功能實現"代碼導出兼容性",讓開發者能以低成本Apple Silicon Mac開發,必要時再使用英偉達硬件部署,顯著降低開發門檻。此舉既保留Apple開發優勢,又拓展部署靈活性,有望推動MLX框架生態擴展。
基於 Apple MLX 框架的視頻字幕生成工具
在Apple Silicon上原生使用MLX框架與數據對話
Graph Neural Network (GNN)庫,為蘋果芯片量身打造
蘋果芯片高效靈活機器學習
catalystsec
本項目對MiniMax-M2模型進行4位量化處理,使用DWQ(動態權重量化)方法,藉助mlx-lm庫達成。該模型是MiniMax-M2的輕量化版本,在保持較好性能的同時大幅減小模型體積。
mlx-community
這是一個基於 Kimi-Linear-48B-A3B-Instruct 模型轉換的 6 位量化版本,專為 Apple MLX 框架優化。該模型保留了原模型強大的指令跟隨能力,同時通過量化技術顯著降低了存儲和計算需求,適合在 Apple 硬件上高效運行。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的視覺語言模型,基於2B參數規模,使用MLX進行8位量化,專門針對Apple Silicon芯片進行了優化。該模型支持圖像和文本的多模態理解與生成任務。
這是基於moonshotai/Kimi-Linear-48B-A3B-Instruct模型轉換的4位量化版本,專為Apple MLX框架優化,提供高效的文本生成能力
本項目是使用 mlx-lm 庫通過動態權重量化(DWQ)將 MiniMax-M2 模型量化為 3 位的成果。它能夠在資源受限的條件下,高效地進行文本生成任務,為相關應用提供了更輕量級的解決方案。
這是MiniMax-M2模型的MLX格式轉換版本,使用mlx-lm 0.28.1從原始模型轉換而來,支持8位量化和分組大小為32的優化配置,專為Apple Silicon設備優化運行。
inferencerlabs
MiniMax-M2 6.5bit MLX是基於MiniMax-M2模型的量化版本,在文本生成任務中表現出色,支持多種量化級別,其中q6.5bit量化在測試中能達到1.128的困惑度,與q8相當。
MiniMax-M2-5bit 是基於 MiniMaxAI/MiniMax-M2 模型轉換而來的 5 位量化版本,專為 MLX 框架優化。該模型是一個大型語言模型,支持文本生成任務,採用 MIT 許可證發佈。
這是MiniMax-M2模型的MLX格式8位量化版本,使用mlx-lm 0.28.4從原始模型轉換而來,專為Apple Silicon設備優化運行。
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型語言模型,專門針對 Apple Silicon 芯片優化,採用 8 位量化技術,參數量為 1B,具有高效推理和低資源消耗的特點。
MiniMax-M2-6bit 是 MiniMaxAI/MiniMax-M2 模型的 MLX 格式轉換版本,使用 mlx-lm 0.28.4 進行轉換,支持在 Apple Silicon 設備上高效運行。
MiniMax-M2-4bit 是使用 mlx-lm 工具從 MiniMaxAI/MiniMax-M2 轉換而來的 4 位量化版本,專門針對 Apple Silicon 芯片優化,提供高效的文本生成能力。
DeepSeek-OCR-8bit是基於DeepSeek-OCR模型轉換的MLX格式版本,專門針對蘋果芯片優化的視覺語言模型,支持多語言OCR識別和圖像文本理解任務。
quocnguyen
該模型是基於DeepSeek-OCR轉換的MLX格式視覺語言模型,專門用於光學字符識別(OCR)任務,支持多語言文本識別和圖像理解
這是一個基於DeepSeek-OCR模型轉換的MLX格式模型,支持多語言圖像文本識別和文本生成功能,專門針對OCR任務優化。
nightmedia
這是Qwen3-Next-80B-A3B-Instruct模型的MLX格式轉換版本,專為在Apple Silicon設備上高效運行而優化。該模型是一個800億參數的大型語言模型,支持文本生成任務,具有強大的對話和推理能力。
Wwayu
這是一個基於GLM-4.6架構的混合專家模型,使用REAP方法對專家進行了40%的均勻剪枝,參數量為218B,並轉換為MLX格式的3位量化版本,適用於蘋果芯片設備高效運行。
這是一個基於Qwen3-VL-32B-Thinking模型轉換的4位量化版本,專門針對MLX框架優化。該模型是一個32B參數規模的多模態視覺語言模型,具備思維鏈推理能力,能夠同時處理圖像和文本輸入,生成高質量的文本響應。
Qwen3-VL-2B-Instruct 是一款高效的圖像文本轉文本模型,由 Qwen 團隊開發。該模型經過 MLX 8位量化優化,特別適用於蘋果硅芯片設備,能夠處理視覺語言任務並提供高效的解決方案。
manasmisra
該模型是基於GLM-4.5-Air使用REAP方法進行25%均勻剪枝後的專家混合模型,已轉換為MLX格式的4位量化版本,適用於蘋果芯片設備的高效推理。
一個基於MLX Whisper的音頻轉錄MCP服務,支持本地文件、Base64音頻和YouTube視頻轉錄,專為蘋果M系列芯片優化。
項目摘要