播客应用Overcast开发者Marco Arment为降低AI服务成本,自建48台Mac mini服务器集群。他利用Apple Silicon芯片的高能效和统一内存优势,运行本地语音转录,以替代昂贵的云端AI服务。
Ollama更新引入苹果MLX框架,显著提升搭载Apple芯片Mac的本地大模型运行性能,响应速度最高翻倍,M5芯片表现突出。
Apple开放FastVLM视觉语言模型,可在搭载Apple Silicon芯片的Mac上体验。该模型基于MLX框架构建,提供近乎即时的高分辨率图像处理,视频字幕处理速度提升85倍,体积缩小3倍以上,支持多平台和浏览器直接使用。
近日,阿里巴巴通义千问官方宣布,正式发布并开源Qwen3全系列32款MLX量化模型,此举引发AI领域广泛关注。 MLX作为一款开源的机器学习框架,专为苹果芯片深度适配,具备高效训练和部署AI大模型的能力,正受到越来越多AI开发者的青睐。而阿里巴巴此次动作,被业内视为是为国行Apple Intelligence(苹果智能)做准备。此前,多方权威消息已透露,阿里巴巴将成为苹果在中国大陆的大模型合作商。
Final Cut Pro 11为Mac、iPad和iPhone带来视频剪辑新体验。
搭载M4芯片家族和Apple Intelligence的全新MacBook Pro
Apple 新一代 iMac,搭载 M4 芯片和 Apple Intelligence。
Tencent
$3
Input tokens/M
$9
Output tokens/M
16
Context Length
Baidu
-
32
$0.1
$0.4
128
Chatglm
$100
McG-221
本模型是Falcon-H1-34B-Instruct指令微调版本的MLX格式转换版,专为Apple Silicon(M系列芯片)优化。它基于原始的Falcon-H1-34B-Instruct模型,通过mlx-lm工具转换为MLX框架兼容的8位量化格式,旨在在macOS设备上实现高效的本地推理。
mlx-community
本模型是基于moonshotai的Kimi-Linear-48B-A3B-Instruct大语言模型,使用mlx-lm工具转换为适用于Apple Silicon芯片(MLX框架)的8位量化版本。它是一个48B参数的指令微调模型,专为遵循人类指令和对话交互而设计。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的视觉语言模型,基于2B参数规模,使用MLX进行8位量化,专门针对Apple Silicon芯片进行了优化。该模型支持图像和文本的多模态理解与生成任务。
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
MiniMax-M2-4bit 是使用 mlx-lm 工具从 MiniMaxAI/MiniMax-M2 转换而来的 4 位量化版本,专门针对 Apple Silicon 芯片优化,提供高效的文本生成能力。
nightmedia
这是一个基于Qwen3-Coder-REAP-25B-A3B模型转换的MLX格式版本,使用mlx-lm工具从原始模型转换而来,专门针对Apple Silicon芯片优化,支持高效的文本生成任务。
这是Qwen3-VL-4B-Instruct模型的4位量化版本,专门针对Apple Silicon芯片优化,使用MLX框架转换。该模型是一个视觉语言模型,支持图像理解和多模态对话任务。
GLM-4.6-4bit是基于zai-org/GLM-4.6模型使用mlx-lm工具转换的4位量化版本,专门针对Apple Silicon芯片优化,支持中英文文本生成任务。
moonstruxx
这是一个基于opendatalab/MinerU2.5-2509-1.2B转换而来的MLX格式大语言模型,参数规模为12亿,专门针对Apple Silicon芯片优化,支持FP16精度推理。
这是一个基于NVIDIA Nemotron架构的49B参数大语言模型,已转换为MLX格式并进行了4位量化,专门为Apple Silicon芯片优化,提供高效的文本生成能力。
Seed-OSS-36B-Instruct是由字节跳动Seed团队开发的360亿参数指令调优大语言模型,基于Transformer架构构建,经过MLX量化处理,专门针对Apple Silicon芯片进行了优化,可在LM Studio中高效运行。
LogicBombaklot
这是一个基于NVIDIA Llama-3.3-Nemotron-Super-49B-v1.5模型转换的MLX格式版本,使用mlx-lm 0.26.3工具转换为8位量化格式,专门为Apple Silicon芯片优化,支持高效的本地推理。
这是DeepSeek-V3.1-Base模型的4位量化版本,使用mlx-lm工具转换而成,专门为Apple Silicon芯片优化,提供高效的大语言模型推理能力。
Gemma 3 270M Instruct是Google推出的轻量级文本生成模型,基于MLX技术针对Apple Silicon芯片优化,提供高效的对话和指令跟随能力。
这是一个基于GPT架构的大型语言模型,拥有1200亿参数并使用4位量化技术压缩,通过MLX框架优化在Apple芯片上运行,支持高效的文本生成任务。
Gallardo994
这是Qwen3-Coder-30B-A3B-Instruct模型的MLX格式转换版本,专门针对Apple Silicon芯片优化,是一个300亿参数的大型代码生成模型,支持多种编程语言的代码生成和理解任务。
基于GLM-4.5-Air模型使用mlx-lm 0.26.1版本转换的3位深度权重量化版本,专为Apple Silicon芯片优化,提供高效的大语言模型推理能力
基于Qwen开发的30B参数指令微调模型,经过MLX 8位量化处理,专门针对Apple Silicon芯片优化,适用于各种文本生成任务。
GLM-4.5-Air-2bit是基于智谱AI的GLM-4.5-Air模型转换而来的2位量化版本,采用MLX格式优化,可在Apple芯片设备上高效运行。该模型支持文本生成任务,具有轻量级和高效率的特点。
Qwen3-235B-A22B-Thinking-2507是由Qwen开发的大语言模型,经过LM Studio团队使用MLX进行6位量化处理,专门针对Apple Silicon芯片进行了优化,提供高效推理能力。