AR眼镜通过MLLM-SC框架实现高效语义处理:10毫秒内生成语义注意力热图,优先标记关键目标(如建筑轮廓),降低背景数据码率。系统利用语义引擎筛选任务相关多模态数据,优化传输路径,释放6G网络30%带宽,实现设备与边缘服务器协同,提升响应效率。
华纳兄弟探索公司为提升个性化内容体验,采用AWS Graviton处理器和Amazon SageMaker AI实例优化AI/ML推理基础设施,实现显著成本节约与性能提升。作为全球领先媒体娱乐企业,其内容覆盖电视、电影及流媒体领域。
月之暗面推出“Kimi Linear”混合线性注意力架构,在短长距离信息处理和强化学习中性能优于传统全注意力方法。其核心Kimi Delta Attention优化了Gated DeltaNet,引入高效门控机制,提升有限状态RNN的记忆管理效率。架构由三份KDA和一份全局MLA组成。
Apple开放FastVLM视觉语言模型,可在搭载Apple Silicon芯片的Mac上体验。该模型基于MLX框架构建,提供近乎即时的高分辨率图像处理,视频字幕处理速度提升85倍,体积缩小3倍以上,支持多平台和浏览器直接使用。
一款为 AI/ML 模型监控和管理而设计的工具。
提供全球最便宜的GPU云服务,助力自托管AI/ML开发。
MLGym是一个用于推进AI研究代理的新框架和基准。
FlashMLA 是一个针对 Hopper GPU 优化的高效 MLA 解码内核,适用于变长序列服务。
ai-sage
GigaChat3-10B-A1.8B 是 GigaChat 系列的高效对话模型,基于混合专家(MoE)架构,拥有 100 亿总参数和 18 亿活跃参数。它采用了创新的多头潜在注意力(MLA)和多令牌预测(MTP)技术,旨在优化推理吞吐量和生成速度。模型在 20T 令牌的多样化数据上训练,支持包括中文在内的 10 种语言,适用于需要快速响应的对话场景。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
ExaltedSlayer
Gemma 3是谷歌推出的轻量级开源多模态模型,本版本为12B参数的指令调优量化感知训练模型,已转换为MLX框架的MXFP4格式,支持文本和图像输入并生成文本输出,具有128K上下文窗口和140+语言支持。
kyr0
这是一个专为苹果硅芯片设备优化的自动语音识别模型,通过转换为MLX框架并量化为FP8格式,实现在苹果设备上的快速端上语音转录。该模型针对逐字精度进行微调,特别适用于需要高精度转录的场景。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
本模型是基于allenai/Olmo-3-7B-Instruct转换的8位量化版本,专门为Apple MLX框架优化。它是一个70亿参数的大型语言模型,支持指令跟随和对话任务。
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
GigaChat3-10B-A1.8B-base是GigaChat系列的基础预训练模型,采用混合专家(MoE)架构,总参数100亿,活跃参数18亿。模型集成了多头潜在注意力(MLA)和多令牌预测(MTP)技术,在推理时具备高吞吐量优势。
McG-221
该模型是基于summykai/gemma3-27b-abliterated-dpo,使用mlx-lm 0.28.3版本转换而成的MLX格式模型。它是一个经过DPO(直接偏好优化)微调的27B参数Gemma 3大语言模型,专为在Apple Silicon(MLX框架)上高效运行而优化。
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLX 是一款用于文本生成的量化模型,通过不同的量化方式在测试中取得不同的困惑度表现,其中q3.825bit量化能达到1.256的困惑度。
本模型是Falcon-H1-34B-Instruct指令微调版本的MLX格式转换版,专为Apple Silicon(M系列芯片)优化。它基于原始的Falcon-H1-34B-Instruct模型,通过mlx-lm工具转换为MLX框架兼容的8位量化格式,旨在在macOS设备上实现高效的本地推理。
Ali-Yaser
本模型是基于meta-llama/Llama-3.3-70B-Instruct进行微调得到的版本,使用mlabonne/FineTome-100k数据集进行训练,包含100k token数据。模型采用Unsloth和Huggingface TRL库进行微调,支持英文语言处理。
Leohan
基于MLX库开发的文本生成模型,专注于自然语言处理任务,为开发者提供高效的文本生成解决方案。
基于MLX库实现的文本生成模型,支持多种量化方式推理,具备分布式计算能力,可在苹果硬件环境下高效运行。
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
Marvis-AI
这是一个基于MLX框架优化的文本转语音模型,从原始模型Marvis-AI/marvis-tts-100m-v0.2转换而来,采用6位量化技术,专门为Apple Silicon硬件优化,提供高效的语音合成能力。
Qwen3-Coder-480B-A35B-Instruct是一个4800亿参数的大型代码生成模型,支持8.5bit量化,基于MLX框架优化。该模型专门针对代码生成任务设计,在配备足够内存的设备上能够高效运行。
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
该项目通过Model Context Protocol (MCP)为MLflow提供自然语言交互界面,使用户能用英语查询和管理机器学习实验与模型,包含服务端和客户端组件。
一个基于Python的ML模型溯源管理服务,使用FastAPI和SQLAlchemy构建,提供数据集管理、实体追踪、活动日志、代理管理和溯源关系跟踪等功能。
MLflow Prompt Registry的MCP服务器,实现从MLflow中访问和管理提示模板。
该项目为MLflow Prompt Registry提供MCP协议支持服务,实现从MLflow中获取和管理提示模板的功能,主要应用于Claude Desktop中便捷调用预设提示。
一个基于Balldontlie API的MCP服务实现,提供NBA、NFL和MLB的球员、球队及比赛信息查询功能。
一个基于Model Context Protocol(MCP)的服务器项目,通过MLB Stats API和pybaseball库提供棒球统计数据访问,包括Statcast、Fangraphs和Baseball Reference等数据源,并支持数据可视化。
PromptLab是一个智能系统,通过MLflow集成将基础用户查询优化为AI系统提示,提供动态模板匹配和参数提取功能。
一个基于MCP协议的MLB数据服务,提供全面的棒球统计数据访问,包括球队排名、赛程、球员信息等,支持AI应用集成。
一个兼容MCP协议的服务器项目,通过ASE、pymatgen和机器学习原子间势能(MLIPs)提供原子尺度模拟功能,目前正在积极开发中。
一个基于MLX Whisper的音频转录MCP服务,支持本地文件、Base64音频和YouTube视频转录,专为苹果M系列芯片优化。
该项目通过自然语言接口为MLflow提供模型上下文协议(MCP)服务,简化机器学习实验和模型的管理与查询。
一个增强Claude AI文档搜索能力的MCP服务器项目,支持多AI/ML库文档搜索,集成Claude推理能力和智能网络搜索。
这是一个基于FastAPI的MCP服务器,通过pybaseball库提供MLB和Fangraphs的棒球数据查询功能,包括球员数据、球队统计和联盟排行榜等。
mcp-server-suite是一个开源的MCP服务器集合,旨在成为自动化领域的'HuggingFace'。它提供模块化的服务器组件,支持从网页搜索到数据库操作等多种功能,并鼓励社区贡献扩展。项目包含核心服务器和规划中的多种专业服务,涵盖AI/ML、软件开发和非技术场景,目标是通过标准化协议简化自动化流程。
HANA云MCP服务器实现,提供模型上下文协议服务
一个安全的MCP服务器实现,用于执行受控的命令行操作,提供全面的安全功能,包括命令白名单、路径验证和执行控制。
一个集成Claude AI的文档搜索助手,通过MCP服务器增强Claude的文档检索能力,支持多AI/ML库文档智能搜索与解释。
一个基于MCP框架的MLB数据API封装服务,提供赛程、比赛结果、球队信息和球员查询等功能。
该项目通过自然语言接口为MLflow提供交互功能,包含服务端和客户端组件,支持查询实验、模型注册及系统信息,简化了MLflow的管理操作。
MCP Servers是一个模型组合平台(MCP)的服务器和服务集合,旨在促进各种AI/ML模型和服务的集成与部署。该项目采用模块化架构,支持标准化通信和可扩展设计,包含天气服务等多种服务器类型。