ブロードコムはアンソロピーから210億ドルのAIチップ注文を獲得し、そのうち100億ドルは確認済みで、残りの110億ドルは2026年末までに納品される予定。同社のAI製品全体の注文額は730億ドルに達している。
IBMが110億ドルでデータストリーミング企業Confluentを買収、1株31ドル。ConfluentはApache Kafkaを基盤に企業のリアルタイムデータ処理を支援。この動きは、AIデータインフラ強化をめぐる競争激化を示す。IBM CEOクリシュナ氏は、インテリジェントデータプラットフォーム構築の重要な一歩と評価。....
上海交通大学無錫フォトニックチップ研究院が、世界初のフォトニックチップ全工程向け専門大規模モデル「LightSeek」を発表。千億パラメータのマルチモーダルアーキテクチャと自社110nm中試ラインの実データを活用し、チップ開発期間を6-8ヶ月から1ヶ月に短縮、効率を7倍向上させ、フォトニックチップのAI垂直モデル時代の幕開けを告げる。....
IBMは110億ドルでデータインフラ企業Confluentを買収し、クラウドデータ管理とAI能力を強化。近年最大規模のM&Aの一つで、企業のデジタル変革とAI導入の流れに対応。買収価格は1株31ドルで、前週終値比約50%プレミアム。Confluentは企業のデータストリームをリアルタイムで管理するプラットフォームを提供。....
MuLan:110以上の言語に対応する多言語拡散モデル
AI技術を用いて、110秒で起業アイデアの検証を行います。
Qwen1.5シリーズ初の1100億パラメーターのオープンソースモデル。多言語対応、高効率Transformerデコーダーアーキテクチャを採用しています。
スマートな会話アシスタントで、効率的なコミュニケーションを実現
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Google
$0.7
Alibaba
$2
-
256
$3.9
$15.2
64
Bytedance
$0.15
$1.5
Baidu
32
$10.5
Tencent
$0.4
128
$0.75
$1
$4
$0.63
$3.15
131
Chatglm
mamei16
ChonkyはDistilBERTをベースにした多言語段落分割モデルで、3400万編を超えるウィキペディア記事の約110億個のトークンで微調整され、任意の自然言語テキストを意味的なチャンクに分割でき、104言語をサポートします。
rasyosef
これはBERT-Mini(1100万パラメータ)に基づくSPLADE疎な検索モデルで、MSMARCOデータセット上でクロスエンコーダに対する知識蒸留訓練によって得られました。このモデルは公式のsplade-v3-distilbertよりも6倍小さいですが、その85%の性能を達成でき、CPU上で数千の文書を処理することができます。
UW
110億パラメータの大規模言語モデルで、革新的なSuperBPEトークナイザーで訓練され、スーパーワードユニット認識とサブワードトークン化能力をサポートします。
IPEC-COMMUNITY
SpatialVLAは110万の実ロボット操作シーンで訓練された空間拡張視覚言語動作モデルで、ロボット制御タスクに特化しています
speakleash
Bielik-11B-v2.3-Instructは110億パラメータを持つ生成テキストモデルで、ポーランド語専用に設計され、SpeakLeashとACK Cyfronet AGHが共同開発しました。
Bielik-11B-v2.2-Instructは110億のパラメータを持つポーランド語の生成型テキストモデルで、SpeakLeashとACK Cyfronet AGHが共同で開発した成果物です。このモデルは選りすぐりのポーランド語のテキストコーパスに基づいて開発され、指令微調整によって最適化され、ポーランド語の処理において優れた性能を発揮し、同時に英語のタスクでも著しい向上が見られます。
Bielik-11B-v2は110億パラメータを持つ生成型テキストモデルで、ポーランド語テキスト向けに開発・訓練され、Mistral-7B-v0.2を初期化し、4000億トークンを訓練しました。
mradermacher
Chewy-Lemon-Cookie-11B は Mistral アーキテクチャに基づく110億パラメータの大規模言語モデルで、テキスト生成とロールプレイタスクに特化しています。
yam-peleg
Hebrew-Gemma-11B-V2は、オープンソースのヘブライ語/英語事前学習生成テキスト大規模言語モデルで、110億パラメータを持ち、GoogleのGemma-7Bアーキテクチャを基にしています。
GoogleのGemma-7Bアーキテクチャに基づくオープンソースの大規模言語モデルで、ヘブライ語/英語のテキスト生成に特化して事前学習され、110億のパラメータを有しています。
IDEA-CCNL
LLaMaアーキテクチャに基づく130億パラメータの大規模事前学習モデルで、中国語分かち書きを最適化し、1100億トークンの中英増分事前学習を完了し、中国語生成と理解能力を大幅に向上させました
facebook
Facebookの大規模多言語音声プロジェクトにおける自動音声認識モデルで、1107言語をサポートし、Wav2Vec2アーキテクチャを基盤とし、アダプター技術を活用して多言語転写を実現しています。
二郎神 - Roberta - 110M - NLIは、中国語RoBERTa-wwm-ext-baseを複数の自然言語推論データセットで微調整したモデルで、中国語自然言語理解タスクに特化しており、複数のNLIベンチマークテストで優れた性能を発揮します。
castorini
AfriBERTaは11種類のアフリカ言語をサポートする多言語事前学習モデルで、1億1100万のパラメータを持ち、テキスト分類や固有表現抽出などのタスクに適しています。
bigscience
T0ppはT5アーキテクチャに基づく110億パラメータのエンコーダ-デコーダモデルで、英語自然言語プロンプトのゼロショットタスク汎化において優れた性能を発揮し、GPT-3を上回りながらもよりコンパクトなサイズを実現しています。
google-t5
T5-11BはGoogleが開発したテキストからテキストへの変換Transformerモデルで、110億のパラメータを持ち、様々なNLPタスクをサポートします。