苹果内部上线两款AI工具Enchanté和Enterprise Assistant,旨在通过大模型整合工程师、HR等多部门日常查询与创作任务。Enchanté界面类似ChatGPT但运算限于本地或私有服务器,仅调用苹果自研模型及安全审核的外部模型。
全球AI服务器市场迎来爆发期,预计2026年出货量同比增长28.3%,整体服务器市场增速达12.8%。增长动力正从模型训练转向推理应用,推动通用服务器需求显著提升。
日本上线AI禁入插画平台TEGAKI,首日注册用户远超预期致网站崩溃。该平台由独立开发者创建,定位为人类艺术创作的“安全港湾”,完全禁止AI生成内容,引发创作者热捧。
苹果计划2026年下半年量产自研服务器AI芯片,2027年启动配备该芯片的新数据中心,以满足设备端AI需求增长。同时,苹果正加速AI基础设施投入,包括在休斯顿建设AI服务器工厂。
为GitHub Copilot提供精选AI提示、代理、工具和MCP服务器等资源
欧盟地区可快速租赁的私密、实惠GPU服务器,提供多种配置和AI模板。
可测试和探索MCP服务器,提供多平台搜索与调试等功能
集网站服务器监控、分析、状态页等功能于一体的出色平台
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Anthropic
$7
$35
200
Google
$0.7
$2.8
1k
Alibaba
-
Baidu
128
$15.8
$12.7
64
Tencent
Openai
$8.75
$70
400
$1.75
$14
32
$0.5
$2
250
Baichuan
Moonshot
$1
$16
262
$21
$105
01-ai
16
LeviDeHaan
SecInt是一个针对实时nginx安全日志分类进行微调的SmolLM2-360M模型,旨在自动检测Web服务器日志中的安全威胁、错误和正常流量模式,准确率超过99%,可在CPU上实现实时检测。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型。它采用两阶段流水线架构,结合大语言模型和高效音频编解码器,实现了卓越的速度和音频质量,支持多种语言并适用于边缘/服务器部署。
KBlueLeaf
HDM-xut-340M-Anime是世界上最小、最便宜的动漫风格文本到图像基础模型,采用特制训练方案,可在消费级硬件或廉价二手服务器硬件上进行训练。
prithivMLmods
基于Qwen3架构构建的专业模型,专注于科学、人工智能设计和通用推理领域。该模型在高难度科学推理数据集上进行了微调,具备出色的通用和创造性推理能力,体积小巧适合本地设备和服务器部署。
Mungert
Jan-nano是一款专为深度研究任务设计的40亿参数紧凑型语言模型,支持与MCP服务器无缝协作及研究工具集成。
unsloth
Jan-Nano是一款40亿参数的紧凑型语言模型,专为深度研究任务设计,优化支持MCP服务器集成。
PaddlePaddle
PP-OCRv4_server_det 是 PaddleOCR 团队开发的文本检测模型,适用于高性能服务器部署,具有高准确率。
PP-OCRv4的服务器端印章文本检测模型,具有高准确性,适用于服务器部署,能有效解决印章文本检测难题。
ValiantLabs
埃斯珀 3 是基于千问 3 构建的编码、架构和开发运维推理专家模型,适用于本地和服务器部署。
埃斯佩尔3是基于千问3构建的代码、架构和开发运维推理专家模型,适用于本地和服务器推理。
XiaoduoAILab
Xmodel-VLM是一款专为消费级GPU服务器设计的高效多模态视觉语言模型,解决了大规模多模态系统服务成本过高的行业难题,在保持高性能的同时显著降低了部署成本。
Retr0REG
这是一个专门用于演示llama-cpp-python库中GGUF模型格式元数据存在的服务器端模板注入漏洞的概念验证模型。该模型展示了如何通过恶意构造的模型元数据实现远程代码执行,帮助安全研究人员理解和防范此类安全风险。
nvidia
NVIDIA Conformer-CTC Small是一个英语语音识别模型,可将英语语音转录为包含空格和撇号的小写英文字母。该模型基于Conformer架构的非自回归小型变体,约1300万个参数,在数千小时的英语语音数据上训练,兼容NVIDIA Riva进行生产级服务器部署。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
Supergateway是一个工具,用于将基于标准输入输出的MCP服务器转换为通过SSE或WebSocket访问的服务,方便远程调试和集成。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
Acemcp是一个代码库索引和语义搜索的MCP服务器,支持自动增量索引、多编码文件处理、.gitignore集成和Web管理界面,帮助开发者快速搜索和理解代码上下文。
Awesome-MCP-ZH 是一个专为中文用户打造的 MCP(模型上下文协议)资源合集,包含 MCP 的基础介绍、玩法、客户端、服务器和社区资源,帮助用户快速上手 MCP。
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
为Nuxt/Vite应用提供MCP服务器支持,帮助模型更好地理解应用结构。
该项目为Notion API实现了一个MCP服务器,允许通过模型上下文协议访问和操作Notion内容,支持搜索、评论、添加页面等功能。
Haiku RAG是一个基于LanceDB、Pydantic AI和Docling构建的智能检索增强生成系统,支持混合搜索、重排序、问答代理、多代理研究流程,并提供本地优先的文档处理和MCP服务器集成。
一个基于Playwright的MCP服务器,为LLM提供浏览器自动化能力
MCP Toolbox for Databases是一个开源数据库MCP服务器,专注于企业级和生产质量,简化工具开发,提供连接池、认证等复杂功能。
BrowserTools MCP是一个强大的浏览器监控与交互工具,通过Chrome扩展和本地服务器实现AI对浏览器的智能分析与操作。
Next.js开发工具MCP服务器,为Claude、Cursor等AI编程助手提供Next.js开发工具和实用程序,包括运行时诊断、开发自动化和文档访问功能。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,通过Node.js服务器桥接AI助手与Unity项目的交互,提供菜单执行、对象选择、组件更新等功能。
MCP-Framework是一个基于TypeScript的框架,用于优雅地构建模型上下文协议(MCP)服务器。它提供开箱即用的架构,支持自动目录发现工具、资源和提示,具有多种传输方式和类型安全特性。
一个基于MCP协议的Kubernetes集群管理服务器,支持通过命令行或聊天界面与Kubernetes集群交互,提供资源管理、Helm图表操作等功能。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
Runno是一个JavaScript工具包集合,用于在浏览器和Node.js等环境中安全地运行多种编程语言的代码,通过WebAssembly和WASI实现沙盒化执行,支持Python、Ruby、JavaScript、SQLite、C/C++等语言,并提供Web组件、MCP服务器等集成方式。
一个MCP服务器,将AI模型与WinDbg/CDB集成,用于分析Windows崩溃转储文件和进行远程调试,支持自然语言交互执行调试命令。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,允许AI助手与Unity项目交互,提供Unity与Node.js服务器之间的桥梁。