Anthropicは、2026年にClaudeモデルの需要が急増する見込みに備えて、自社でAIチップを開発する検討を進めている。これにより計算力の支配力を高め、外部依存を減らすことが可能になる。同社の年間収入はすでに30億ドルを突破しており、堅調な業績が戦略的転換を牽引している。
メタは30億ドルを借り入れて、アメリカオハイオ州に「プロメテウス」という名称の1ギガワットの人工知能データセンターを建設する予定です。このデータセンターの计算力は一つの原子力発電所と同等で、約10万戸の家庭の電力需要を満たすことができます。
アンソロピックの年収が300億ドルを突破し、2025年末の90億ドルから大幅増。企業向けClaude AIサービスが好調で、1000社超の顧客が年間100万ドル以上を支出、2月から割合が倍増。....
アントロピックは、社員向けの大規模な株式売却計画を開始した。現職および元従業員で1年以上勤務した人を対象に、資金調達額は60億ドルに達する見込みである。今回の取引は、会社の最新評価額である3800億ドルに基づいており、今月初めに行われた30億ドルの資金調達時の評価額よりさらに大幅に上昇している。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
-
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
Baidu
128
$4
$16
$8
$240
52
Bytedance
$1.2
$3.6
4
$2
mlx-community
これはQwen3-Coder-30B-A3B-Instructモデルを変換した4ビット量子化バージョンで、MLXフレームワークに特化して最適化されています。このモデルはコード生成と理解タスクに焦点を当てており、複数のプログラミング言語をサポートし、30億のパラメータ規模を持っています。
Mungert
Granite-3B-Code-Instruct-128KはIBM Researchによって開発された30億パラメータの長文脈コード指令モデルで、Apache 2.0ライセンスの下で公開されています。このモデルはコード生成タスクに特化して最適化されており、128Kの長文脈処理をサポートし、コード生成、解釈、修正などの分野で良好な性能を発揮します。
lex-au
Orpheusは高性能なドイツ語テキスト音声変換モデルで、自然で感情豊かな音声合成を実現します。このモデルは30億パラメータモデルの8ビット量子化バージョンで、実行効率を最適化しています。
tensorblock
StarCoder2-3Bは、コード生成に特化した30億パラメータのオープンソースモデルで、BigCodeチームによって開発されました。
ibm-research
PowerLM-3Bは30億のパラメータを持つ小型言語モデルで、Power学習率スケジューラを用いて訓練され、自然言語の多肢選択、コード生成、数学的推論などの複数のベンチマークテストで優れた性能を発揮します。
ibm-granite
Granite-3B-Code-Instruct-2KはGranite-3B-Code-Base-2Kを微調整した30億パラメータのモデルで、命令追従能力が強化されており、特にコード生成と論理的推論タスクに優れています。
nold
StarCoder2-3Bは30億のパラメータを持つコード生成モデルで、17種類のプログラミング言語のデータを基に訓練されており、コード断片を生成することができますが、必ずしも完全に正確であるとは限りません。
bigcode
StarCoder2-3Bは30億パラメータを持つコード生成モデルで、17のプログラミング言語でトレーニングされ、16,384トークンのコンテキストウィンドウをサポートします。
StarCoder-3Bは30億のパラメータを持つコード生成モデルで、80以上のプログラミング言語でトレーニングされており、中間コンテンツの補完やコード補完をサポートします。
ikala
Bloom-zhの30億パラメータ版を基に、人間フィードバックデータで微調整した多言語対話モデル
TurkuNLP
FinBERTはGoogleのBERTアーキテクチャに基づくフィンランド語の事前学習済み言語モデルで、30億以上のフィンランド語テキストトークンで訓練されており、様々なフィンランド語NLPタスクに適しています。