英伟达向云服务商CoreWeave追加20亿美元投资,以每股87.20美元购买其A类股票。双方将合作建设“AI工厂”,目标到2030年新增超5吉瓦AI算力。新数据中心将全面集成英伟达最新技术栈,包括采用下一代Rubin架构芯片替代现有Blackwell架构。
百度智能云将2026年AI相关收入增速目标从100%大幅提升至200%,旨在巩固并扩大其在AI云市场的领先地位,冲刺行业第一。2025年数据显示,百度已在中国主流云厂商的大模型相关项目中中标109个,市场表现强劲。
No description available
微软推出第二代自研AI芯片Maia200,旨在提升Azure云服务AI推理效率,减少对英伟达GPU的依赖。该芯片由台积电代工,已开始向爱荷华州数据中心发货,后续将部署至凤凰城地区。微软高管称其为公司“最高效的推理系统”,将优先供内部超级AI团队使用。
智能算力即开即用,全面提升效率与竞争力。
Clio Draft是律所AI法律起草软件,支持文档自动化、在线模板和云法院表格。
专为AI智能体打造的云平台,可自动执行AI生成代码和智能工作负载
AI驱动的销售与营销浏览器,可自动化任务,云驱动灵活可扩展。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
$6
$24
256
Baidu
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
nvidia
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
gabriellarson
Foundation-Sec-8B-Instruct是一款专为网络安全应用设计的80亿参数指令调优语言模型。基于Llama-3.1-8B架构,具备出色的指令跟随能力和网络安全专业知识,支持本地部署,可帮助组织构建AI安全工具,减少对云服务的依赖。
NVIDIA Qwen3-235B-A22B FP8模型是阿里云Qwen3-235B-A22B模型的量化版本,采用优化的Transformer架构,是一个自回归语言模型。该模型通过FP8量化技术显著减少了磁盘空间和GPU内存需求,同时保持较高的推理精度,适用于各种AI应用场景。
OpenSumi 是一个帮助快速构建 AI 原生 IDE 产品的框架,支持云端和桌面端开发环境,提供丰富的示例项目和模板。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
HOPX MCP服务器是一个基于模型上下文协议的服务,允许AI助手在隔离的云容器中执行Python、JavaScript、Bash和Go代码,支持数据分析和文件操作。
AI基础设施代理是一个智能系统,允许用户通过自然语言命令管理AWS云资源。它利用AI模型将用户需求转化为可执行的AWS操作,并提供Web仪表板、状态管理和安全防护功能。
DevOps AI Toolkit是一个基于AI的平台工程和DevOps自动化工具,通过智能Kubernetes操作和对话式工作流,为团队提供资源部署推荐、问题修复、项目治理和共享提示库等功能,使复杂的云原生操作可通过自然语言交互实现。
n8n是一个面向技术团队的工作流自动化平台,结合了代码灵活性和无代码速度,提供400+集成、原生AI功能和公平代码许可,支持自托管或云端部署。
Context Lens 是一个本地化语义搜索工具,可将任何内容转换为可搜索的知识库,让AI助手理解含义而非仅匹配关键词。它使用内置的LanceDB向量数据库,支持本地文件、GitHub仓库和URL内容,无需API密钥或云服务,完全在本地处理数据。
DuckDB MCP Server是一个实现模型上下文协议(MCP)的服务,让AI助手能够通过SQL与DuckDB数据库交互,支持多种数据源查询和云端存储访问。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
Vaali MCP服务器是一个展示高级AI代理能力的开源项目,通过交互式参数收集和工作流自动化,实现了官方MCP询问和智能参数引导两种模式,支持云端部署和本地集成。
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
阿里云Supabase MCP服务器项目,通过Model Context Protocol标准将Supabase项目与AI助手连接,提供项目管理、数据库查询等工具,支持在阿里云平台部署和操作Supabase服务。
Linode MCP Server是一个连接AI助手与Linode云基础设施的协议服务器,支持通过自然语言对话管理云资源,包括实例、数据库、网络等多种服务。
RagCode MCP是一个隐私优先的本地AI代码助手,通过语义向量搜索和RAG技术,让AI助手能够理解整个代码库,支持Go、PHP、Python等多种语言,无需云端依赖。
GCP MCP服务器是一个标准化的AI助手接口,用于查询和管理Google云平台资源
该项目展示了一个基于LangGraph和MCP协议的实时多工具代理架构,通过解耦代理编排与工具执行,实现模块化、可扩展的AI系统。MCP服务支持多种传输协议(SSE/STDIO),允许AI代理动态调用远程工具,并具备跨语言、云部署能力。
360 AI 云盘 MCP 服务实现,允许 AI 模型通过标准协议与云盘交互,提供文件管理、上传下载、视频处理等智能操作能力。
一个完全在本地运行的隐私优先文档搜索服务器,通过MCP协议为AI编程工具提供语义搜索功能,无需API密钥或云端服务,所有数据处理均在用户计算机上完成。
360 AI 云盘 MCP 服务为AI模型提供标准化的云盘文件管理能力,支持多种接入方式和丰富的文件操作功能。