阿里云通义智能硬件展上,商汤科技推出的“元萝卜”机器人引人注目,它不仅能下棋,还能进行拟人化教学和实时对话,为孩子们提供轻松有趣的学习体验。
微软正调整AI战略,成为AI初创公司Anthropic的重要客户,年采购额或达5亿美元,用于产品智能化升级。同时,微软调整Azure云销售考核,要求推广Anthropic的AI模型,以增强云服务市场竞争力。
光云科技澄清AI业务布局,公司仅接入第三方大模型,未自主研发底层技术,AI产品收入占比小,尚未形成规模回报。
深圳海上世界文化艺术中心近日举办阿里云通义智能硬件成果展,汇聚超220家企业、1500余款产品,其中240多款为全球或国内首发。展会展示AI正从云端算法走向现实生活,以通义千问等大模型为技术底座,驱动终端革命,让AI成为触手可及的生活伙伴。
提供网站、邮箱和云存储服务,简单、快速、安全,免费使用。
专为Mac用户打造的转录应用,支持多种文件,准确快速,可本地或云端处理。
提供稳定高效的 AI 算力及 GPU 租赁服务。
智能算力即开即用,全面提升效率与竞争力。
Anthropic
$7
Input tokens/M
$35
Output tokens/M
200
Context Length
Alibaba
-
Baidu
128
$2
256
32
$1.6
$4
$15
1k
Huawei
$1.8
$5.4
16
$2.4
$12
8
$0.5
$10
$0.8
$0.2
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是阿里巴巴推出的新一代视觉语言模型,在文本理解、视觉感知、空间理解、长上下文处理和智能体交互等方面全面升级,支持从边缘设备到云端的灵活部署。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用增强推理的思维架构,支持从边缘到云的密集架构和混合专家模型架构。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
Qwen3-VL-4B-Instruct是阿里云Qwen团队推出的40亿参数指令调优多模态大语言模型,专为高通NPU优化,融合强大的视觉语言理解能力与对话微调功能,适用于聊天推理、文档分析和视觉对话等实际应用场景。
Qwen
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面均有显著提升。该模型提供密集架构和混合专家模型架构,支持从边缘到云的不同规模部署。
lmstudio-community
Qwen3-Next-80B-A3B-Instruct是阿里云通义千问团队开发的大规模语言模型,经过MLX框架4位量化优化,专门针对苹果芯片设备进行了性能优化,提供高效的推理能力。
nvidia
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
NVIDIA Qwen3-14B FP4 模型是阿里云 Qwen3-14B 模型的量化版本,采用优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活量化为 FP4 数据类型,可在 NVIDIA GPU 加速系统上实现高效推理。
yslan
STream3R是一种基于因果Transformer的可扩展序列3D重建模型,将点云图预测重新定义为仅解码器的Transformer问题。它引入流式处理框架,利用因果注意力高效处理图像序列,能够很好地泛化到各种具有挑战性的场景,包括传统方法经常失效的动态场景。
Qwen3-4B-Instruct-2507是阿里云推出的40亿参数大语言模型,基于Unsloth Dynamic 2.0量化技术,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面都有显著提升。
gabriellarson
Foundation-Sec-8B-Instruct是一款专为网络安全应用设计的80亿参数指令调优语言模型。基于Llama-3.1-8B架构,具备出色的指令跟随能力和网络安全专业知识,支持本地部署,可帮助组织构建AI安全工具,减少对云服务的依赖。
cpatonn
Qwen3-30B-A3B-Instruct-2507是阿里云推出的305亿参数混合专家模型,采用非思考模式,在指令遵循、逻辑推理、文本理解、数学科学、编码和工具使用等方面表现优异,支持262K长上下文和多语言处理。
arcee-ai
AFM-4.5B是由Arcee.ai开发的45亿参数指令调优模型,专为企业级应用设计,支持多语言处理,在云端到边缘的各种部署环境中展现卓越性能。
Qwen3-235B-A22B-Thinking-2507-FP8是阿里云推出的一款强大文本生成模型,在推理能力、通用能力和长上下文理解能力等方面有显著提升。该模型拥有2350亿参数,激活220亿参数,支持256K长上下文,专门针对高度复杂的推理任务进行了优化。
Danucore
Qwen3-Coder-480B-A35B-Instruct是阿里云推出的强大代码生成模型,具备480B总参数和35B激活参数,在多个基础编码任务上表现出色,支持长上下文处理和智能编码功能。
NVIDIA Qwen3-30B-A3B FP4模型是阿里云Qwen3-30B-A3B模型的量化版本,采用优化的Transformer架构,是自回归语言模型。该模型使用TensorRT Model Optimizer进行FP4量化,将每个参数的比特数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的性能表现。
NVIDIA Qwen3-235B-A22B FP4 模型是阿里云 Qwen3-235B-A22B 模型的量化版本,基于优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活值量化为 FP4 数据类型,显著减少了存储和计算需求。
NVIDIA Qwen3-235B-A22B FP4模型是阿里云Qwen3-235B-A22B模型的量化版本,采用优化的Transformer架构,是一种自回归语言模型。该模型通过FP4量化技术将参数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的准确性和性能。
OpenSumi 是一个帮助快速构建 AI 原生 IDE 产品的框架,支持云端和桌面端开发环境,提供丰富的示例项目和模板。
Testkube是一个面向云原生应用的测试编排与执行框架,提供统一平台来定义、运行和分析测试,支持现有测试工具和Kubernetes基础设施。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
这是一个持续更新的MCP服务器精选列表,涵盖了浏览器控制、艺术与文化、云平台、命令行、通信、客户数据平台、数据库、开发者工具、数据科学工具、文件系统、金融与金融科技、游戏、知识与记忆、位置服务、营销、监控、搜索和实用工具等多个类别。每个项目都附带了GitHub链接和星标数量,方便用户快速了解和使用。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
该项目展示了一个基于SSE的MCP服务器和客户端实现模式,允许代理(客户端)随时连接和使用服务器提供的工具,适用于云原生场景。
Google Workspace MCP服务器是一个功能全面的多客户端协议服务器,通过自然语言控制Google日历、云端硬盘、Gmail、文档等全套办公套件,支持一键安装到Claude桌面端,提供高级OAuth认证和服务缓存。
HOPX MCP服务器是一个基于模型上下文协议的服务,允许AI助手在隔离的云容器中执行Python、JavaScript、Bash和Go代码,支持数据分析和文件操作。
AI基础设施代理是一个智能系统,允许用户通过自然语言命令管理AWS云资源。它利用AI模型将用户需求转化为可执行的AWS操作,并提供Web仪表板、状态管理和安全防护功能。
DevOps AI Toolkit是一个基于AI的平台工程和DevOps自动化工具,通过智能Kubernetes操作和对话式工作流,为团队提供资源部署推荐、问题修复、项目治理和共享提示库等功能,使复杂的云原生操作可通过自然语言交互实现。
n8n是一个面向技术团队的工作流自动化平台,结合了代码灵活性和无代码速度,提供400+集成、原生AI功能和公平代码许可,支持自托管或云端部署。
Hyperbolic GPU MCP服务器是一个基于Node.js的工具,允许用户通过API管理和租用Hyperbolic云平台上的GPU资源,包括查看可用GPU、租用实例、SSH连接及运行GPU工作负载等功能。
一个基于AWS Lambda、CloudFront和Cognito认证的无服务器MCP协议实现项目,提供完整的云端MCP服务器基础设施,支持OAuth 2.0认证、实时流传输和可扩展架构。
DuckDB MCP Server是一个实现模型上下文协议(MCP)的服务,让AI助手能够通过SQL与DuckDB数据库交互,支持多种数据源查询和云端存储访问。
阿里云MCP服务提供与阿里云服务交互的工具,包括查询日志服务、管理ECS实例和部署无服务器功能。
一个MCP服务器项目,允许用户将Python脚本部署到Modal平台,提供便捷的云端脚本运行服务。
Nano Agent是一个实验性的小型工程代理MCP服务器,支持多提供商LLM模型,用于测试和比较云端与本地LLM在性能、速度和成本方面的代理能力。项目包含多模型评估系统、嵌套代理架构和统一工具接口,支持OpenAI、Anthropic和Ollama等提供商。
该项目展示了如何在Cloudflare Workers上部署远程MCP服务器,并通过OAuth登录实现安全访问。支持本地开发调试、与MCP检查器和Claude桌面客户端的连接,最终可部署至Cloudflare云端。
腾讯云COS MCP Server是一个基于MCP协议的服务,无需编码即可让大模型快速接入腾讯云存储(COS)和数据万象(CI)能力,提供文件上传下载、图片处理、视频截帧等云端存储与处理功能。
Google表格与云端硬盘的MCP服务工具