イーロン・マスクは、xAIが150億ドルの資金調達を完了したという噂を否定しています。以前、CNBCはxAIがGPUの計算能力を購入してGrokモデルを訓練中であり、評価額が2000億ドルに達する可能性があると報じました。AIの資金調達ブームの中で、このニュースは注目を集めています。OpenAIが最近66億ドルを調達し、評価額が5000億ドルになったのと比較されます。
AIデータ分析企業のWisdomAIは5000万ドルのAラウンド資金調達を完了し、Kleiner Perkinsが主導し、NVenturesが参加しました。創業者は資金を技術開発と市場拡大に充てる予定であると述べました。同社はさまざまなデータからビジネスインサイトを抽出することに注力しています。
Anthropicは5000億ドルを投じ米国にAIインフラを構築。テキサス州とニューヨーク州にカスタムデータセンターを建設し、Fluidstackと連携。2026年稼働予定で、常駐800職・建設2000職以上の雇用創出を見込む。....
韓国AIチャットツール「zeta」が10月の利用時間7362万時間でChatGPTを超え、韓国で最も人気のあるアプリに。5000万人以上のユーザー調査で、国産製品の競争力の強さを示す。....
5000冊以上の書籍の要約と分析を提供しています。
5000冊以上の本の要約と分析を提供し、重要な情報を素早く取得できます。
5000冊以上の書籍の要約と分析を提供し、速読に適しています。
スターゲート?プロジェクトは、今後4年間で5000億ドルを投資し、新たなAIインフラを構築することを目的としています。
baidu
$2
入力トークン/百万
$8
出力トークン/百万
32k
コンテキスト長
Etherll
Tashkeel-350M-v2は、アラビア語テキストの標音に特化したモデルで、3億5000万のパラメータを持っています。このモデルはibm-granite/granite-4.0-h-350mモデルをベースに、Misraj/Sadeed_Tashkeelaデータセットで微調整トレーニングされ、アラビア語テキストに正しい音標記号を自動的に付けることができます。
mldi-lab
Kairos-50Mは5000万のパラメータを持つ時系列基礎モデルで、異なる分野にまたがるゼロショット予測に特化しています。適応的分詞と位置符号化技術を採用し、異なる情報密度を持つ異種時系列データを処理でき、微調整することなく異なる分野で強力な汎化能力を実現します。
Piero2411
これはYOLOv8sアーキテクチャに基づく、バーコードとQRコードの検出に特化したコンピュータビジョンモデルです。このモデルは5000枚以上の画像を含む総合的なデータセットで微調整され、EAN13やCode128などの多種類のバーコードとQRコードの正確な検出と分類をサポートします。
Phonepadith
これはラオス語に特化して最適化された要約生成モデルで、Google Gemma - 3 - 4B - Instructモデルをベースに、5000以上の高品質なラオス語の入力 - 出力ペアを使って微調整されており、主に人工知能とデジタルコンテンツ(AIDC)のテーマに焦点を当てています。
unsloth
LFM2-350MはLiquid AIによって開発された第2世代のハイブリッドモデルで、エッジAIとデバイス端末のデプロイに特化して設計されています。このモデルは、品質、速度、メモリ効率の面で新しい基準を確立し、3億5000万のパラメータを持ち、複数の言語をサポートし、エッジコンピューティングシナリオに適しています。
Arsh-ai
Arsh-llmはLlamaアーキテクチャに基づく5000万パラメータの言語モデルで、クリエイティブなストーリー、首尾一貫したテキスト、実用的なコードの生成に優れています。
Misha24-10
F5-TTSを微調整したロシア語音声合成モデルで、アクセント記号機能をサポートし、トレーニング時間は5000時間を超えます。
TuKoResearch
AuriStream-1Bは、生物に着想を得たGPTスタイルの自己回帰型Transformerモデルで、長い音声文脈で蝸牛マークを予測するために特別に設計されています。このモデルは約20秒(4096個のマーク)の長い文脈ウィンドウを使用し、LibriLightデータセット(約60000時間)で約500000ステップの訓練を行い、豊富な時間的に整列した表現を学習し、音声の続きを生成することができます。
facebook
XGLM-564M は多言語自己回帰言語モデルで、5.64億のパラメータを含み、30言語のバランスの取れたコーパスに基づいて訓練され、合計5000億のサブワードで構成されています。
RichardErkhov
Qwen2.5アーキテクチャに基づく5000万パラメータのテキストランキングモデルで、情報検索やドキュメントランキングタスクに適しています
01-ai
Yi-1.5はYiモデルのアップグレード版で、Yiのベースに5000億トークンの高品質コーパスを用いて継続的な事前学習を行い、300万個の多様な微調整サンプルで微調整を行っています。Yiと比較して、コーディング、数学、推論、指令遵守能力においてより優れた性能を発揮し、同時に言語理解、常識推論、読解力においても卓越した能力を維持しています。
sapienzanlp
Minerva-350M-base-v1.0は、Sapienza NLPがFAIRとCINECAと協力して開発した、完全にイタリア語で事前学習された最初の大規模言語モデルシリーズの3億5000万パラメータのバージョンです。このモデルは700億個のトークン(350億イタリア語 + 350億英語)で学習され、本当にオープン(データとモデルの両方がオープン)なイタリア語 - 英語のバイリンガル大規模言語モデルです。
AntibodyGeneration
ProGen2アーキテクチャに基づく治療用抗体生成モデル。2.8億のタンパク質配列で事前学習され、5000の抗体-抗原構造で微調整済み
pandalla
このモデルは、電子商取引のレビューからキーワードと核心的な観点を抽出するために専用され、5000件の淘宝レビューを基にトレーニングされています。
Darna
このモデルはDeTrアーキテクチャに基づき、5000枚の表検出画像で事前学習後、特定の表検出タスク向けに微調整されたバージョンです
clu-ling
OpenAIのwhisper-large-v2モデルを日本語CommonVoiceデータセットでファインチューニングした音声認識モデル、5000ステップ訓練、単語誤り率0.7449
TopdeckingLands
5000枚のマジック:ザ・ギャザリングカードアート作品でトレーニングされたテキストから画像を生成するモデル。マジック特有のアート画像を生成可能
XGLM-2.9Bは多言語自己回帰言語モデルで、29億のパラメータを持ち、5000億のサブワードからなる多様な言語のバランスの取れたコーパスでトレーニングされています。
XGLM-1.7Bは多言語自己回帰型言語モデルで、17億のパラメータを持ち、5000億のサブワードトークンからなる多様な言語のバランスの取れたコーパスで学習されています。
XGLM-7.5Bは75億のパラメータを持つ多言語自己回帰型言語モデルで、30種以上の言語をサポートし、5000億のサブワードトークンの多様なコーパスで訓練されています。