Apple开放FastVLM视觉语言模型,可在搭载Apple Silicon芯片的Mac上体验。该模型基于MLX框架构建,提供近乎即时的高分辨率图像处理,视频字幕处理速度提升85倍,体积缩小3倍以上,支持多平台和浏览器直接使用。
苹果MLX框架新增CUDA支持引发热议,这标志着苹果对英伟达生态的妥协。面对英伟达在AI领域的统治地位和4万亿美元市值,苹果调整策略以抢占市场份额。MLX支持CUDA后,开发者可在英伟达GPU训练模型后部署到苹果设备,提升开发效率。此举既回应了2018年"禁卡风波"的争议,也借助CUDA统一内存机制实现跨平台部署。苹果最终选择拥抱拥有500万开发者的CUDA生态,展现其在AI领域的战略转向。
苹果MLX框架新增CUDA支持,开发者现可在Apple Silicon设备开发后导出至CUDA环境运行。此举大幅降低开发成本,小型团队无需前期购置昂贵Nvidia硬件。由GitHub开发者主导的该项目已并入MLX主分支,虽不支持Mac直接连接Nvidia显卡运行,但开发测试阶段可完全在苹果设备完成。CUDA环境下性能显著优于Mac,结合Nvidia硬件在AI领域的优势,为开发者提供更强算力支持。这一更新将提升开发灵活性,降低准入门槛。
苹果MLX框架新增CUDA支持,开发者可在Mac上开发AI应用后无缝迁移至英伟达平台。这一突破解决了以往MLX依赖Metal框架导致部署受限的问题,由开发者@zcbenz耗时数月完成代码整合。新功能实现"代码导出兼容性",让开发者能以低成本Apple Silicon Mac开发,必要时再使用英伟达硬件部署,显著降低开发门槛。此举既保留Apple开发优势,又拓展部署灵活性,有望推动MLX框架生态扩展。
基于 Apple MLX 框架的视频字幕生成工具
在Apple Silicon上原生使用MLX框架与数据对话
Graph Neural Network (GNN)库,为苹果芯片量身打造
苹果芯片高效灵活机器学习
Alibaba
$6
输入tokens/百万
$24
输出tokens/百万
256
上下文长度
$1.6
$4
128
$0.8
$0.2
Iflytek
$8
-
8
$2.4
$9.6
32
Baidu
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
ExaltedSlayer
Gemma 3是谷歌推出的轻量级开源多模态模型,本版本为12B参数的指令调优量化感知训练模型,已转换为MLX框架的MXFP4格式,支持文本和图像输入并生成文本输出,具有128K上下文窗口和140+语言支持。
kyr0
这是一个专为苹果硅芯片设备优化的自动语音识别模型,通过转换为MLX框架并量化为FP8格式,实现在苹果设备上的快速端上语音转录。该模型针对逐字精度进行微调,特别适用于需要高精度转录的场景。
本模型是基于allenai/Olmo-3-7B-Instruct转换的8位量化版本,专门为Apple MLX框架优化。它是一个70亿参数的大型语言模型,支持指令跟随和对话任务。
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
McG-221
该模型是基于summykai/gemma3-27b-abliterated-dpo,使用mlx-lm 0.28.3版本转换而成的MLX格式模型。它是一个经过DPO(直接偏好优化)微调的27B参数Gemma 3大语言模型,专为在Apple Silicon(MLX框架)上高效运行而优化。
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLX 是一款用于文本生成的量化模型,通过不同的量化方式在测试中取得不同的困惑度表现,其中q3.825bit量化能达到1.256的困惑度。
本模型是Falcon-H1-34B-Instruct指令微调版本的MLX格式转换版,专为Apple Silicon(M系列芯片)优化。它基于原始的Falcon-H1-34B-Instruct模型,通过mlx-lm工具转换为MLX框架兼容的8位量化格式,旨在在macOS设备上实现高效的本地推理。
Leohan
基于MLX库开发的文本生成模型,专注于自然语言处理任务,为开发者提供高效的文本生成解决方案。
基于MLX库实现的文本生成模型,支持多种量化方式推理,具备分布式计算能力,可在苹果硬件环境下高效运行。
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
Marvis-AI
这是一个基于MLX框架优化的文本转语音模型,从原始模型Marvis-AI/marvis-tts-100m-v0.2转换而来,采用6位量化技术,专门为Apple Silicon硬件优化,提供高效的语音合成能力。
Qwen3-Coder-480B-A35B-Instruct是一个4800亿参数的大型代码生成模型,支持8.5bit量化,基于MLX框架优化。该模型专门针对代码生成任务设计,在配备足够内存的设备上能够高效运行。
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
本模型是基于moonshotai的Kimi-Linear-48B-A3B-Instruct大语言模型,使用mlx-lm工具转换为适用于Apple Silicon芯片(MLX框架)的8位量化版本。它是一个48B参数的指令微调模型,专为遵循人类指令和对话交互而设计。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的视觉语言模型,基于2B参数规模,使用MLX进行8位量化,专门针对Apple Silicon芯片进行了优化。该模型支持图像和文本的多模态理解与生成任务。
这是基于moonshotai/Kimi-Linear-48B-A3B-Instruct模型转换的4位量化版本,专为Apple MLX框架优化,提供高效的文本生成能力
本项目是使用 mlx-lm 库通过动态权重量化(DWQ)将 MiniMax-M2 模型量化为 3 位的成果。它能够在资源受限的条件下,高效地进行文本生成任务,为相关应用提供了更轻量级的解决方案。
一个基于MLX Whisper的音频转录MCP服务,支持本地文件、Base64音频和YouTube视频转录,专为苹果M系列芯片优化。
项目摘要