阿里平头哥发布高端AI芯片“真武810E”,性能超越英伟达A800及主流国产GPU,与H20相当。该芯片采用自研架构和互联技术,标志着阿里AI战略“通云哥”正式成型。
2026年1月29日,阿里巴巴旗下平头哥半导体正式发布高端AI芯片“真武810E”,实现了从硬件架构到配套软件的全链路自主研发,标志着阿里AI“黄金三角”战略全面落地。该芯片已在阿里云内部实现万卡规模应用验证。
阿里云数据库负责人李飞飞对当前热炒的“AI原生数据库”概念提出批评,认为行业尚处早期,远未成熟,盲目跟风如同“大跃进”。为厘清概念,他首次提出两条硬核标准,强调需回归技术本质,避免空谈。
阿里云推出全球首个“AI就绪数据库”体系,通过AI数据湖库统一管理全模态数据,支持语义检索与模型推理,使数据库从被动存储转变为主动参与AI决策的智能中枢。
Qwen2.5-Omni 是阿里云通义千问团队开发的端到端多模态模型,支持文本、音频、图像、视频输入。
使用AI大模型一键生成高清故事短视频,支持多种语言模型和图像生成技术。
阿里云推出的大型音频语言模型
一站式大模型服务平台
Anthropic
$7
Input tokens/M
$35
Output tokens/M
200
Context Length
Alibaba
-
$4
$16
1k
$1
$10
256
Baidu
128
$2
$20
$6
$24
$8
$240
52
$3.9
$15.2
64
$15.8
$12.7
$0.8
unsloth
Qwen3-VL是阿里巴巴推出的新一代视觉语言模型,在文本理解、视觉感知、空间理解、长上下文处理和智能体交互等方面全面升级,支持从边缘设备到云端的灵活部署。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
Qwen3-VL-4B-Instruct是阿里云Qwen团队推出的40亿参数指令调优多模态大语言模型,专为高通NPU优化,融合强大的视觉语言理解能力与对话微调功能,适用于聊天推理、文档分析和视觉对话等实际应用场景。
lmstudio-community
Qwen3-Next-80B-A3B-Instruct是阿里云通义千问团队开发的大规模语言模型,经过MLX框架4位量化优化,专门针对苹果芯片设备进行了性能优化,提供高效的推理能力。
nvidia
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
NVIDIA Qwen3-14B FP4 模型是阿里云 Qwen3-14B 模型的量化版本,采用优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活量化为 FP4 数据类型,可在 NVIDIA GPU 加速系统上实现高效推理。
Qwen3-4B-Instruct-2507是阿里云推出的40亿参数大语言模型,基于Unsloth Dynamic 2.0量化技术,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面都有显著提升。
cpatonn
Qwen3-30B-A3B-Instruct-2507是阿里云推出的305亿参数混合专家模型,采用非思考模式,在指令遵循、逻辑推理、文本理解、数学科学、编码和工具使用等方面表现优异,支持262K长上下文和多语言处理。
Qwen
Qwen3-235B-A22B-Thinking-2507-FP8是阿里云推出的一款强大文本生成模型,在推理能力、通用能力和长上下文理解能力等方面有显著提升。该模型拥有2350亿参数,激活220亿参数,支持256K长上下文,专门针对高度复杂的推理任务进行了优化。
Danucore
Qwen3-Coder-480B-A35B-Instruct是阿里云推出的强大代码生成模型,具备480B总参数和35B激活参数,在多个基础编码任务上表现出色,支持长上下文处理和智能编码功能。
NVIDIA Qwen3-30B-A3B FP4模型是阿里云Qwen3-30B-A3B模型的量化版本,采用优化的Transformer架构,是自回归语言模型。该模型使用TensorRT Model Optimizer进行FP4量化,将每个参数的比特数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的性能表现。
NVIDIA Qwen3-235B-A22B FP4 模型是阿里云 Qwen3-235B-A22B 模型的量化版本,基于优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活值量化为 FP4 数据类型,显著减少了存储和计算需求。
NVIDIA Qwen3-235B-A22B FP4模型是阿里云Qwen3-235B-A22B模型的量化版本,采用优化的Transformer架构,是一种自回归语言模型。该模型通过FP4量化技术将参数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的准确性和性能。
NVIDIA Qwen3-235B-A22B FP8模型是阿里云Qwen3-235B-A22B模型的量化版本,采用优化的Transformer架构,是一个自回归语言模型。该模型通过FP8量化技术显著减少了磁盘空间和GPU内存需求,同时保持较高的推理精度,适用于各种AI应用场景。
onnx-community
Qwen3-1.7B 是阿里云推出的1.7B参数规模的开源大语言模型,基于Transformer架构,支持多种自然语言处理任务。
Qwen3是阿里云开发的最新大语言模型系列,支持思维模式与非思维模式动态切换,在推理、多语言支持和智能体能力方面表现突出。
Qwen3-0.6B是阿里云开发的0.6B参数规模的大语言模型,属于Qwen3系列的最新成员,支持100多种语言,具备强大的推理、指令遵循和多语言能力。
Qwen3是阿里云开发的最新大语言模型,具有强大的推理、指令遵循和多语言支持能力,支持思考与非思考模式切换。
Qwen3是阿里云开发的大规模语言模型系列的最新版本,具有卓越的推理、指令跟随和多语言支持能力。32B版本是其密集模型之一,支持在思考与非思考模式间切换。
alibaba-pai
阿里云PAI团队开发的1.3B参数文本生成视频模型,支持多分辨率训练及首尾帧预测
阿里云MCP服务提供与阿里云服务交互的工具,包括查询日志服务、管理ECS实例和部署无服务器功能。
一个基于MCP协议的阿里云OSS文件上传服务器,支持多账号管理和与其他MCP工具集成。
阿里云RDS OpenAPI MCP服务器项目,提供通过OPENAPI管理RDS服务的MCP服务器。
阿里云Supabase MCP服务器项目,通过Model Context Protocol标准将Supabase项目与AI助手连接,提供项目管理、数据库查询等工具,支持在阿里云平台部署和操作Supabase服务。
阿里云函数计算MCP服务器项目,支持通过MCP协议将函数计算能力集成到Cursor、Claude等代理应用中,提供快速部署和管理功能。
阿里云可观测MCP服务提供了一系列工具,用于访问阿里云日志服务SLS、应用实时监控服务ARMS等产品,支持自然语言转查询、日志分析、性能监控等功能。
阿里云MCP服务工具,提供SLS日志查询等功能
一个基于MCP协议的服务器实现,用于管理阿里云实时计算Flink资源,提供集群管理、作业部署、监控等功能。
阿里云运维MCP服务器项目,提供多种云产品操作工具,包括ECS、VPC、RDS、OSS等服务的启动、停止、查询等功能,支持通过API和OOS实现自动化运维。
该项目是一个为阿里云Lindorm多模型NoSQL数据库创建的MCP服务器示例,提供了向量搜索、全文检索和SQL操作等功能。
基于TypeScript的MCP服务器,集成阿里云通义万相的文生图和文生视频API,支持异步任务处理和MCP协议规范
多提供商AI图像生成服务器,支持Google、ZHIPU AI和阿里云百炼,提供文本生成图像和图像转换功能,兼容MCP客户端应用。
无影AgentBay是阿里云为AI Agent设计的云基础设施,提供一键配置工具和执行环境,支持快速集成和云端无服务器运行。
阿里云PolarDB是一种云原生关系型数据库服务,提供高性能、秒级自动扩展和大容量存储,完全兼容MySQL和PostgreSQL,高度兼容Oracle语法。
kube-audit-mcp 是一个 MCP 服务器,为 AI 代理提供查询 Kubernetes 审计日志的能力,支持阿里云、AWS 和 Google Cloud 等多种日志提供商。
PolarDB-X MCP是一个提供工具和资源的服务,允许AI代理与阿里云PolarDB-X数据库进行交互。
阿里云DMS MCP Server是一个AI驱动的统一数据管理网关,支持连接30多种数据源,提供跨源数据安全访问的一站式解决方案,具备NL2SQL、代码生成、数据检索和安全审计等核心功能。
DataWorks MCP服务器为AI提供标准化接口,实现与阿里云DataWorks Open API的无缝交互。
阿里云无影AgentBay是为AI Agent设计的云基础设施,提供一键配置工具和执行环境,支持快速集成和服务器化运行。
阿里云DashScope API的MCP服务,提供图像生成、任务状态查询及下载功能