Anthropic与博通达成合作,将采购近100万颗TPU v7p芯片,用于自建AI基础设施。此举绕过了谷歌,直接向芯片制造商采购,仅让谷歌作为IP授权方参与。这标志着AI公司正寻求摆脱对云巨头的依赖,构建自主算力体系。
英伟达以约200亿美元获得AI芯片初创公司Groq的技术非独家授权,其核心团队已加入英伟达,此举被视为规避监管的“变相收购”。交易金额达Groq估值三倍,旨在战略防御谷歌TPU的竞争威胁,巩固市场地位。
谷歌正推进“TorchTPU”计划,旨在提升其TPU芯片对PyTorch框架的兼容性,以降低开发者从英伟达GPU迁移至谷歌TPU的成本。此举意在挑战英伟达在AI芯片领域的统治地位,打破PyTorch与英伟达CUDA的深度绑定。
Broadcom获Anthropic价值210亿美元AI芯片订单,其中100亿美元已确认,110亿美元预计2026年底交付。公司AI产品总订单额达730亿美元。
Gemma 3 是基于 Gemini 2.0 技术的轻量级、高性能开源模型,专为单 GPU 或 TPU 设备设计。
Google第六代张量处理单元,提供卓越的AI工作负载性能。
TPUv5e 上稳定扩散 XL 模型的应用
在浏览器中编写和执行代码
Openai
$0.63
输入tokens/百万
$3.15
输出tokens/百万
131
上下文长度
Chatglm
$8
$16
128
$2
Alibaba
-
Google
$0.14
$0.28
$0.35
$0.7
$1.4
Deepseek
$1
8
$1.05
$4.2
1k
camenduru
这是一个基于TPU训练并转换为PyTorch的稳定扩散模型,专注于文本生成图像任务,特别适用于毛绒玩具类图像的生成。
monsoon-nlp
基于ELECTRA框架训练的泰米尔语预训练模型,第二版采用TPU训练并扩大语料库规模
flax-community
基于Common Voice西班牙语数据预训练的语音识别模型,使用Flax框架在TPU上训练
基于因果语言建模目标预训练的印尼语生成模型,使用Flax框架在TPUv3-8上训练
一个针对斯瓦希里语新闻文本进行分类的RoBERTa模型,在Google Cloud TPUv3-8上训练完成
Norod78
基于GPT2架构的微型希伯来文本生成模型,通过TPU和GPU训练完成
NbAiLab
这是一个基于挪威语T5的模型,在挪威巨量语料库(NCC)上使用TPU v3-8进行训练。