Apple开放FastVLM视觉语言模型,可在搭载Apple Silicon芯片的Mac上体验。该模型基于MLX框架构建,提供近乎即时的高分辨率图像处理,视频字幕处理速度提升85倍,体积缩小3倍以上,支持多平台和浏览器直接使用。
苹果MLX框架新增CUDA支持引发热议,这标志着苹果对英伟达生态的妥协。面对英伟达在AI领域的统治地位和4万亿美元市值,苹果调整策略以抢占市场份额。MLX支持CUDA后,开发者可在英伟达GPU训练模型后部署到苹果设备,提升开发效率。此举既回应了2018年"禁卡风波"的争议,也借助CUDA统一内存机制实现跨平台部署。苹果最终选择拥抱拥有500万开发者的CUDA生态,展现其在AI领域的战略转向。
苹果MLX框架新增CUDA支持,开发者现可在Apple Silicon设备开发后导出至CUDA环境运行。此举大幅降低开发成本,小型团队无需前期购置昂贵Nvidia硬件。由GitHub开发者主导的该项目已并入MLX主分支,虽不支持Mac直接连接Nvidia显卡运行,但开发测试阶段可完全在苹果设备完成。CUDA环境下性能显著优于Mac,结合Nvidia硬件在AI领域的优势,为开发者提供更强算力支持。这一更新将提升开发灵活性,降低准入门槛。
苹果MLX框架新增CUDA支持,开发者可在Mac上开发AI应用后无缝迁移至英伟达平台。这一突破解决了以往MLX依赖Metal框架导致部署受限的问题,由开发者@zcbenz耗时数月完成代码整合。新功能实现"代码导出兼容性",让开发者能以低成本Apple Silicon Mac开发,必要时再使用英伟达硬件部署,显著降低开发门槛。此举既保留Apple开发优势,又拓展部署灵活性,有望推动MLX框架生态扩展。
基于 Apple MLX 框架的视频字幕生成工具
在Apple Silicon上原生使用MLX框架与数据对话
Graph Neural Network (GNN)库,为苹果芯片量身打造
苹果芯片高效灵活机器学习
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
mlx-community
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的视觉语言模型,基于2B参数规模,使用MLX进行8位量化,专门针对Apple Silicon芯片进行了优化。该模型支持图像和文本的多模态理解与生成任务。
这是基于moonshotai/Kimi-Linear-48B-A3B-Instruct模型转换的4位量化版本,专为Apple MLX框架优化,提供高效的文本生成能力
本项目是使用 mlx-lm 库通过动态权重量化(DWQ)将 MiniMax-M2 模型量化为 3 位的成果。它能够在资源受限的条件下,高效地进行文本生成任务,为相关应用提供了更轻量级的解决方案。
这是MiniMax-M2模型的MLX格式转换版本,使用mlx-lm 0.28.1从原始模型转换而来,支持8位量化和分组大小为32的优化配置,专为Apple Silicon设备优化运行。
inferencerlabs
MiniMax-M2 6.5bit MLX是基于MiniMax-M2模型的量化版本,在文本生成任务中表现出色,支持多种量化级别,其中q6.5bit量化在测试中能达到1.128的困惑度,与q8相当。
MiniMax-M2-5bit 是基于 MiniMaxAI/MiniMax-M2 模型转换而来的 5 位量化版本,专为 MLX 框架优化。该模型是一个大型语言模型,支持文本生成任务,采用 MIT 许可证发布。
这是MiniMax-M2模型的MLX格式8位量化版本,使用mlx-lm 0.28.4从原始模型转换而来,专为Apple Silicon设备优化运行。
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
MiniMax-M2-6bit 是 MiniMaxAI/MiniMax-M2 模型的 MLX 格式转换版本,使用 mlx-lm 0.28.4 进行转换,支持在 Apple Silicon 设备上高效运行。
MiniMax-M2-4bit 是使用 mlx-lm 工具从 MiniMaxAI/MiniMax-M2 转换而来的 4 位量化版本,专门针对 Apple Silicon 芯片优化,提供高效的文本生成能力。
DeepSeek-OCR-8bit是基于DeepSeek-OCR模型转换的MLX格式版本,专门针对苹果芯片优化的视觉语言模型,支持多语言OCR识别和图像文本理解任务。
quocnguyen
该模型是基于DeepSeek-OCR转换的MLX格式视觉语言模型,专门用于光学字符识别(OCR)任务,支持多语言文本识别和图像理解
这是一个基于DeepSeek-OCR模型转换的MLX格式模型,支持多语言图像文本识别和文本生成功能,专门针对OCR任务优化。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
Wwayu
这是一个基于GLM-4.6架构的混合专家模型,使用REAP方法对专家进行了40%的均匀剪枝,参数量为218B,并转换为MLX格式的3位量化版本,适用于苹果芯片设备高效运行。
这是一个基于Qwen3-VL-32B-Thinking模型转换的4位量化版本,专门针对MLX框架优化。该模型是一个32B参数规模的多模态视觉语言模型,具备思维链推理能力,能够同时处理图像和文本输入,生成高质量的文本响应。
Qwen3-VL-2B-Instruct 是一款高效的图像文本转文本模型,由 Qwen 团队开发。该模型经过 MLX 8位量化优化,特别适用于苹果硅芯片设备,能够处理视觉语言任务并提供高效的解决方案。
manasmisra
该模型是基于GLM-4.5-Air使用REAP方法进行25%均匀剪枝后的专家混合模型,已转换为MLX格式的4位量化版本,适用于苹果芯片设备的高效推理。
一个基于MLX Whisper的音频转录MCP服务,支持本地文件、Base64音频和YouTube视频转录,专为苹果M系列芯片优化。
项目摘要