谷歌正推進“TorchTPU”計劃,旨在提升其TPU芯片對PyTorch框架的兼容性,以降低開發者從英偉達GPU遷移至谷歌TPU的成本。此舉意在挑戰英偉達在AI芯片領域的統治地位,打破PyTorch與英偉達CUDA的深度綁定。
Broadcom獲Anthropic價值210億美元AI芯片訂單,其中100億美元已確認,110億美元預計2026年底交付。公司AI產品總訂單額達730億美元。
谷歌從自用芯片轉向對外銷售,推出TPUv7“鐵木”處理器,直接挑戰英偉達市場地位。此舉已促使AI計算價格下降,改變以往僅內部使用的策略,積極拓展第三方銷售,意圖搶佔市場份額。
SemiAnalysis報告指出,OpenAI自2024年5月發佈GPT-4o後,未完成新一代前沿模型的大規模預訓練,因擴展參數和數據時遭遇收斂困難或性能倒退而中止。GPT-5系列實爲GPT-4o優化版,缺乏架構突破。相比之下,谷歌TPUv7已在Gemini3等模型上成功驗證大規模預訓練,算力集羣表現更優。
Gemma 3 是基於 Gemini 2.0 技術的輕量級、高性能開源模型,專為單 GPU 或 TPU 設備設計。
Google第六代張量處理單元,提供卓越的AI工作負載性能。
TPUv5e 上穩定擴散 XL 模型的應用
在瀏覽器中編寫和執行代碼
Openai
$0.63
輸入tokens/百萬
$3.15
輸出tokens/百萬
131
上下文長度
Chatglm
$8
$16
128
$2
Alibaba
-
Google
$0.7
$1.4
$0.14
$0.28
$0.35
Deepseek
$1
8
$1.05
$4.2
1k
camenduru
這是一個基於TPU訓練並轉換為PyTorch的穩定擴散模型,專注於文本生成圖像任務,特別適用於毛絨玩具類圖像的生成。
flax-community
一個針對斯瓦希里語新聞文本進行分類的RoBERTa模型,在Google Cloud TPUv3-8上訓練完成
基於因果語言建模目標預訓練的印尼語生成模型,使用Flax框架在TPUv3-8上訓練
基於Common Voice西班牙語數據預訓練的語音識別模型,使用Flax框架在TPU上訓練
monsoon-nlp
基於ELECTRA框架訓練的泰米爾語預訓練模型,第二版採用TPU訓練並擴大語料庫規模
NbAiLab
這是一個基於挪威語T5的模型,在挪威巨量語料庫(NCC)上使用TPU v3-8進行訓練。
Norod78
基於GPT2架構的微型希伯來文本生成模型,通過TPU和GPU訓練完成