AIBase
首页
AI资讯
AI产品库
GEO平台
MCP服务
模型算力广场
ZH

AI资讯

查看更多

号称全球最快AI推理服务问世!速度提升20倍 成本极低

Cerebras Systems推出Cerebras Inference,宣称这是全球最快的AI推理服务,性能超越基于GPU的传统系统20倍,成本效益显著提高,特别适用于处理大语言模型(LLMs)。其8B版本每秒处理1800个token,70B版本则为450个token,速度和性价比远超NVIDIA GPU解决方案。Cerebras Inference在保持行业领先准确度的同时,价格仅为每百万个token10美分至60美分,相比GPU产品提升100倍。这项服务特别适合构建需要复杂实时性能的下一代AI应用,如智能代理和智能系统,并提供免费、开发者和企业三个层次的服务,满足不同需求。Cerebras Inference的核心技术基于Cerebras CS-3系统,搭载业界领先的Wafer Scale Engine3(WSE-3),提供远超NVIDIA H100的内存带宽。此服务不仅推动了AI计算领域的革新,还在医疗、能源、政府、科学计算和金融服务等多个行业中发挥关键作用,引领AI技术发展。

13.5k 6 天前
号称全球最快AI推理服务问世!速度提升20倍 成本极低

模型

查看更多

internlm2.5_1.8b_chat

Shanghai-ai-lab

internlm2.5_1.8b_chat

$2

输入tokens/百万

-

输出tokens/百万

8

上下文长度

internlm2.5_7b_chat

Shanghai-ai-lab

internlm2.5_7b_chat

$2

输入tokens/百万

-

输出tokens/百万

8

上下文长度

AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2026AIBase
商务合作网站地图