アントロピックとブロードコンは協力関係を結び、約100万個のTPU v7pチップを購入して自前のAIインフラストラクチャーを構築する。この取り組みはグーグルを避け、チップメーカーに直接購入を行い、グーグルはIPライセンス提供者のみとして関与する。これはAI企業がクラウド大手に依存せず、自前の演算力システムの構築を目指すことを示している。
NVIDIAは約200億ドルでAIチップ新興企業Groqの技術を非独占的にライセンスし、中核チームを獲得。規制回避の「事実上の買収」と見られ、取引額はGroq評価額の3倍。Google TPUとの競争に対応し、市場地位を強化する戦略的措置。....
グーグルは「TorchTPU」計画を推進しており、PyTorchフレームワークに対するTPUチップの互換性を向上させることで、開発者がNVIDIA GPUからグーグルのTPUに移行する際のコストを低下させることが目的です。この動きは、AIチップ分野におけるNVIDIAの支配的地位を挑戦し、PyTorchとNVIDIA CUDAの深い結合を破るものです。
ブロードコムはアンソロピーから210億ドルのAIチップ注文を獲得し、そのうち100億ドルは確認済みで、残りの110億ドルは2026年末までに納品される予定。同社のAI製品全体の注文額は730億ドルに達している。
Gemma 3は、Gemini 2.0テクノロジーに基づいた軽量で高性能なオープンソースモデルであり、単一のGPUまたはTPUデバイス向けに設計されています。
Google第6世代のテンソル処理ユニット。AIワークロードに卓越した性能を提供します。
TPUv5e 上で動作するStable Diffusion XLモデルのアプリケーション
ブラウザ上でコードを作成して実行できます
Openai
$0.63
入力トークン/百万
$3.15
出力トークン/百万
131
コンテキスト長
Huawei
-
32
Chatglm
$2
$8
128
$16
Alibaba
Google
$0.14
$0.28
$0.35
$0.7
$1.4
Deepseek
$1
8
Baichuan
$1.05
$4.2
1k
camenduru
これはTPUでトレーニングされ、PyTorchに変換された安定拡散モデルで、テキストから画像生成タスクに特化しており、特にぬいぐるみ類の画像生成に適しています。
flax-community
Common Voiceのスペイン語データで事前学習された音声認識モデル、Flaxフレームワークを使用しTPUでトレーニング
スワヒリ語ニューステキストを分類するためのRoBERTaモデルで、Google Cloud TPUv3-8でトレーニング済み
因果的言語モデリング目標に基づいて事前学習されたインドネシア語生成モデル、Flaxフレームワークを使用してTPUv3-8でトレーニング
monsoon-nlp
ELECTRAフレームワークでトレーニングされたタミル語事前学習モデル、第二版はTPUトレーニングを採用しコーパス規模を拡大
Norod78
GPT2アーキテクチャに基づくミニヘブライ語テキスト生成モデルで、TPUとGPUを用いて訓練されました。
NbAiLab
これはノルウェー語T5に基づくモデルで、ノルウェーの巨大コーパス(NCC)を使用してTPU v3 - 8で訓練されました。