Alphabetが200億ドルの債券発行を計画し、AI競争を支援。投資家の反応は好調で、購入額は1000億ドルを超え、5倍の超過購入となり、将来の技術投資への強い信頼を示している。....
Alphabetは約200億ドルの債券発行を計画し、AIチップやデータセンターなどへの投資を強化。2026年までに1850億ドルの資本支出を見込み、AI競争に対応。....
Alphabetは200億ドルの債券発行を計画し、市場予想を大幅に上回る規模で、AI戦略への資金調達を目指す。AI競争における強力な投資と戦略的決意を示している。....
Anthropicは200億ドルの資金調達を実施中で、評価額は3500億ドルに達する見込み。投資家の需要が高く、当初予定の2倍規模に拡大。AIモデル競争激化と計算コスト上昇を受け、5ヶ月前の130億ドル調達に続く大規模資金確保が必要となった。....
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
-
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$4
$16
$8
$240
52
Bytedance
$1.2
$3.6
4
bartowski
これはp-e-w/gpt-oss-20b-hereticモデルの量子化バージョンで、llama.cppのimatrix技術を使用して量子化処理が行われています。このモデルは200億パラメータの大規模言語モデルで、高品質から低品質まで様々な量子化オプションを提供し、ファイルサイズは41.86GBから11.52GBまでで、さまざまなハードウェア条件に適しています。
MikeKuykendall
これはWeOpenMLに基づくGPT-OSS 20BモデルのGGUF形式のバージョンで、革新的なMoE CPUエキスパート卸載技術を初めて実現しました。この技術は、完全な生成品質を維持しながら、99.9%のVRAM削減を実現し、200億パラメータのハイブリッドエキスパートモデルを2MBのVRAMで実行できます。
ibm-granite
Granite-20B-Code-Instruct-8Kは200億パラメータのコード生成モデルで、Granite-20B-Code-Base-8Kをファインチューニングしたもので、コード生成と命令追従能力に特化しています。
internlm
InternLM-20Bは上海人工知能研究所が商湯科技、香港中文大学、復旦大学と共同で発表した200億パラメータの事前学習モデルで、2.3T以上の高品質な中英語とコードトークンデータで事前学習されており、卓越した総合性能と強力なツール呼び出し能力を備えています。