绿联科技与MiniMax达成战略合作,成为首家原生内嵌大模型的NAS品牌,让AI大模型直接运行在私有云中,为极客用户提供更智能的本地化AI体验。
2026年3月,阿里云手机AI应用“JVSClaw”正式上线,提供免费内测与模型额度,腾讯“WorkBuddy”也更新微信直连功能,显示云厂商正激烈争夺移动AI入口。
京东云发布OpenClaw自动化工具,作为“全民养虾计划”核心,联合多部门通过“数字龙虾”兑换实体龙虾的趣味激励,降低AI Agent技术门槛,加速其在远程控制与自动化办公场景的应用。
腾讯云智能体开发平台将于2026年3月13日起调整AI模型计费策略,核心变化包括结束公测模型免费使用,并对自研混元系列进行价格优化。此举标志着腾讯云AI商业生态进入成熟发展阶段。其中,GLM5、MiniMax2.5和Kimi2.5三款高性能模型将结束限时免费公测。
基于OpenClaw框架的云AI代理,一键部署、自动任务、跨平台集成
ZeroClaw是本地私人AI助理,可连多平台,数据不离开本地,无云无订阅。
云浏览器基础设施,供AI团队和自动化使用,可通过应用或API启动,免费试用7天。
智能算力即开即用,全面提升效率与竞争力。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
Baidu
128
$6
$24
256
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
nvidia
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
gabriellarson
Foundation-Sec-8B-Instruct是一款专为网络安全应用设计的80亿参数指令调优语言模型。基于Llama-3.1-8B架构,具备出色的指令跟随能力和网络安全专业知识,支持本地部署,可帮助组织构建AI安全工具,减少对云服务的依赖。
NVIDIA Qwen3-235B-A22B FP8模型是阿里云Qwen3-235B-A22B模型的量化版本,采用优化的Transformer架构,是一个自回归语言模型。该模型通过FP8量化技术显著减少了磁盘空间和GPU内存需求,同时保持较高的推理精度,适用于各种AI应用场景。
OpenSumi 是一个帮助快速构建 AI 原生 IDE 产品的框架,支持云端和桌面端开发环境,提供丰富的示例项目和模板。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
Vestige是一个基于认知科学的AI记忆引擎,通过实现预测误差门控、FSRS-6间隔重复、记忆梦境等29个神经科学模块,为AI提供长期记忆能力。包含3D可视化仪表板和21个MCP工具,完全本地运行,无需云端。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
HOPX MCP服务器是一个基于模型上下文协议的服务,允许AI助手在隔离的云容器中执行Python、JavaScript、Bash和Go代码,支持数据分析和文件操作。
AI基础设施代理是一个智能系统,允许用户通过自然语言命令管理AWS云资源。它利用AI模型将用户需求转化为可执行的AWS操作,并提供Web仪表板、状态管理和安全防护功能。
DevOps AI Toolkit是一个基于AI的平台工程和DevOps自动化工具,通过智能Kubernetes操作和对话式工作流,为团队提供资源部署推荐、问题修复、项目治理和共享提示库等功能,使复杂的云原生操作可通过自然语言交互实现。
n8n是一个面向技术团队的工作流自动化平台,结合了代码灵活性和无代码速度,提供400+集成、原生AI功能和公平代码许可,支持自托管或云端部署。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
Context Lens 是一个本地化语义搜索工具,可将任何内容转换为可搜索的知识库,让AI助手理解含义而非仅匹配关键词。它使用内置的LanceDB向量数据库,支持本地文件、GitHub仓库和URL内容,无需API密钥或云服务,完全在本地处理数据。
Vaali MCP服务器是一个展示高级AI代理能力的开源项目,通过交互式参数收集和工作流自动化,实现了官方MCP询问和智能参数引导两种模式,支持云端部署和本地集成。
DuckDB MCP Server是一个实现模型上下文协议(MCP)的服务,让AI助手能够通过SQL与DuckDB数据库交互,支持多种数据源查询和云端存储访问。
Infomaniak MCP服务器是一个基于Model Context Protocol的接口服务,允许AI助手通过Infomaniak API管理域名、邮箱、虚拟主机、云存储等多种服务。
RagCode MCP是一个隐私优先的本地AI代码助手,通过语义向量搜索和RAG技术,让AI助手能够理解整个代码库,支持Go、PHP、Python等多种语言,无需云端依赖。
Linode MCP Server是一个连接AI助手与Linode云基础设施的协议服务器,支持通过自然语言对话管理云资源,包括实例、数据库、网络等多种服务。
阿里云Supabase MCP服务器项目,通过Model Context Protocol标准将Supabase项目与AI助手连接,提供项目管理、数据库查询等工具,支持在阿里云平台部署和操作Supabase服务。
360 AI 云盘 MCP 服务实现,允许 AI 模型通过标准协议与云盘交互,提供文件管理、上传下载、视频处理等智能操作能力。
一个完全在本地运行的隐私优先文档搜索服务器,通过MCP协议为AI编程工具提供语义搜索功能,无需API密钥或云端服务,所有数据处理均在用户计算机上完成。
Code Remote是一个MCP协议工具,允许AI助手通过云端服务器中继,在您的本地机器上安全地执行Shell命令、读写文件和浏览文件系统,实现远程控制。