汇丰银行报告称,OpenAI面临巨大资金压力,2030年前需融资至少2070亿美元(约1.47万亿元人民币),以支撑庞大算力需求。资金缺口源于与微软和亚马逊的合作,分别签订2500亿和380亿美元云计算协议,合同算力总量达36吉瓦。
英伟达回应谷歌AI进展,强调自身在AI基础设施领域的核心地位,称其是唯一能运行所有主流AI模型、覆盖云端到边缘计算的全平台,领先行业约一代。黄仁勋指出,英伟达通用GPU在性能、灵活性和可替代性上优于专用AI芯片。
微软升级“高级粘贴”功能,改用本地AI模型替代云端处理,提升文本数据处理效率。此举利用设备计算能力,在保护用户隐私的同时,提供智能识别支持,优化复制粘贴体验,提高工作效率。
云计算服务商Lambda完成超15亿美元E轮融资,资金将用于建设大规模AI工厂,满足日益增长的计算需求。该公司提供GPU即服务,正与CoreWeave等同行竞争并扩大市场份额。这是Lambda在2025年的第二轮融资,此前2月已完成4.8亿美元D轮融资。
实时推荐优化AWS成本的自动化平台。
提供高性能GPU出租服务,包括B200、H200、RTX4090、H100等型号。即时部署,价格透明。
TwelveLabs是被领先研究人员认可为视频理解中性能最出色的人工智能,超越了云计算巨头和开源模型的基准。
Ubicloud是一种开源云,可在任何地方运行,提供弹性计算、块存储、负载均衡器、防火墙、托管PostgreSQL和GitHub Actions运行器。
Openai
$7.7
Input tokens/M
$30.8
Output tokens/M
200
Context Length
Anthropic
$7
$35
$21
$105
Alibaba
-
Baidu
128
$2
256
32
Tencent
$1
$4
$1.6
$0.75
$1.75
$14
400
$15
1k
Huawei
$1.8
$5.4
16
$2.4
$12
8
$0.5
$10
Google
$0.8
$0.2
nvidia
NVIDIA Qwen3-235B-A22B FP4 模型是阿里云 Qwen3-235B-A22B 模型的量化版本,基于优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活值量化为 FP4 数据类型,显著减少了存储和计算需求。
bit-dny
MindLLM 1.3B是由北京市海量语言信息处理与云计算应用工程技术研究中心与北京理工大学东南信息技术研究院联合开发的13亿参数Transformer模型,支持中英文对话生成。
阿里云函数计算MCP服务器项目,支持通过MCP协议将函数计算能力集成到Cursor、Claude等代理应用中,提供快速部署和管理功能。
一个基于MCP协议的服务器实现,用于管理阿里云实时计算Flink资源,提供集群管理、作业部署、监控等功能。
该项目展示了如何在Cloudflare Workers上部署远程MCP服务器,并实现OAuth登录功能。支持本地开发调试,可通过MCP Inspector工具或Claude桌面客户端连接,提供数学计算等工具调用能力,最终可部署至Cloudflare云端。
这是一个用于Oracle云基础设施的MCP服务器项目,允许LLM直接管理OCI资源,支持动态配置文件切换、计算实例和数据库系统管理等功能
OCI核心服务FastMCP服务器是一个专为Oracle云基础设施设计的生产级管理工具,提供全面的计算实例生命周期管理、数据库操作和网络信息查询功能,采用LLM优先的设计理念,通过OCI Python SDK实现高性能和可靠性。
一个基于Azure CLI的MCP服务器实现,提供对Azure云资源的程序化访问,支持多种Azure服务操作,包括计算、存储、网络、数据库等,并包含身份认证和安全管理功能。
基于AWS MCP服务器的AI驱动云开发项目