探索AI前沿,掌握行业发展趋势
每日精选AI热点,追踪最新行业动态
精准筛选产品,多维度产品调研
热门AI产品实力、热度、年/月/日排行
提交AI产品信息,助力产品推广和用户转化
一站式AI工具指南,快速找到你需要的工具
涵盖各类AI模型,满足你的开发与研究需求
热门AI大模型性能、热度、年/月/日排行
寻找优质模型提供商,获取可靠模型支持
多维度对比大模型,找到最适合你的模型
精准计算大模型使用成本,合理规划预算
多模型实时评测,模型输出结果快速比对
聚集热门MCP服务,快速找到适合你的服务
轻松接入MCP客户端,调用强大的AI能力
学习MCP使用技巧,从入门到精通
热门MCP服务性能排行,帮你找到最佳选择
发布你的MCP服务,推广你的MCP服务
自由测试MCP服务,线上快速体验
快速测试MCP服务,快速上线
一站式GEO品牌洞察 提升AI搜索转化率
分析并追踪人工智能模型如何引用您的品牌
检测品牌在AI平台中的可见度
通过AI搜索优化服务,让品牌在AI中实现霸屏
一键检测电脑配置,研判运行模型的兼容性
根据算力需求,推荐匹配的服务器配置
发现与 Apple Silicon 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
在苹果硅芯片上创建和运行高性能的macOS和Linux虚拟机,并内置支持AI代理。
在Mac上原生运行Stable Diffusion
Firebase SDK for Apple App Development
Ollama but for Mobile ?
A course of learning LLM inference serving on Apple Silicon for systems engineers.
机器学习、深度学习、人工智能、博弈论和强化学习领域中,被广泛引用且极具价值的论文
MLX-VLM 是一个软件包,允许您在 Mac 上使用 MLX 来进行视觉语言模型 (VLM) 的推理和微调。
用自然语言查询你的苹果健康数据?
在iOS上轻松快速地创建神经网络!使用TensorFlow模型,底层采用Metal加速。
基于 Huggingface Diffusers 实现的 FLUX 模型的 MLX 端口。
Native, Apple Silicon–only local LLM server. Similar to Ollama, but built on Apple's MLX for maximum performance on M‑series chips. SwiftUI app + SwiftNIO server with OpenAI‑compatible endpoints.
AMD-SHARK Studio -- Web UI for SHARK+IREE High Performance Machine Learning Distribution
SHARK Studio —— SHARK+IREE 高性能机器学习分布式系统的 Web 用户界面
在苹果Swift Playgrounds中构建的神经网络
Optimized Whisper models for streaming and on-device use
MCP server for searching Apple Developer Documentation - frameworks, APIs, sample code, and guides
A type-safe, elegant iMessage SDK for macOS with zero dependencies
A secure local sandbox to run LLM-generated code using Apple containers
Tock:开源对话式人工智能工具包
在苹果硅芯片的GPU上运行LLaMA(以及斯坦福大学的Alpaca)模型进行推理。