Luminalが530万ドルのシード資金を調達。Felicis Venturesが主導し、複数の著名投資家が参加。元インテルチップ設計者が共同創業。計算リソース最適化とインフラ効率向上に注力し、ソフトウェアの使いやすさが開発者に与える制約を解決。....
日本のソフトバンクグループは、ABBグループのロボティクス事業を53億7500万ドルで買収する予定で、2026年に完了する見込みです。ABBのロボティクス部門には約7,000人の従業員がおり、主に選別や清掃などの産業用ロボットを扱っており、2024年の収益は23億ドルで、ABB全体の売上の7%を占めています。取引は規制当局の承認を待っています。
2025年の人工知能産業大会の発表データによると、2024年の中国のAI産業規模は9000億元を超える見込みで、前年比24%増となる。2025年9月までに国内のAI企業は5300社を超え、世界市場の15%を占め、中国の人工知能分野における急速な発展傾向を示している。
Superpanel創業者Julien Emeryは、家族の法的トラブルをきっかけに、法律事務所向け顧客獲得プラットフォームを設立。カナダの法制度の課題を解決し、利用者体験向上を目指す。....
534言語に対応する大規模言語モデル
mistral
$0.72
入力トークン/百万
$2.16
出力トークン/百万
256k
コンテキスト長
pytorch
これはPyTorchチームがtorchaoを使用して量子化したQwen3-8Bモデルで、int4の重みのみの量子化とAWQアルゴリズムを採用しています。このモデルはH100 GPU上で53%のVRAM使用量を削減し、1.34倍の高速化を実現し、mmlu_abstract_algebraタスクに特化したキャリブレーション最適化が行われています。
jet-ai
Jet-Nemotron-4BはNVIDIAが開発した高効率混合アーキテクチャの言語モデルで、事後ニューラルアーキテクチャサーチとJetBlock線形注意力モジュールという2つの核心的な革新技術に基づいて構築されています。性能面では、Qwen3、Qwen2.5、Gemma3、Llama3.2などのオープンソースモデルを上回り、H100 GPU上で最大53.6倍の生成スループットの高速化を実現しています。
Jet-Nemotronは新型の混合アーキテクチャ言語モデルファミリーで、Qwen3、Qwen2.5、Gemma3、Llama3.2などの最先端のオープンソース全注意言語モデルを上回り、同時に著しい効率向上を実現します。H100 GPUでは生成スループットが最大53.6倍に加速されます。
SEOKDONG
LlaMA3.2 1BモデルをベースにSFT方式で微調整された韓国語言語モデルで、53の領域の韓国語データを使用して訓練され、韓国社会の価値観や文化を理解し、テキスト生成や質問応答などの様々な自然言語処理タスクをサポートします。
LlaMA3.1をベースに微調整された韓国語大規模言語モデルで、韓国文化に適合し、53の分野の韓国語タスクをサポートします。
PekingU
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダーと不確実性最小化クエリ選択メカニズムにより、COCOデータセットで53.1% AP、108 FPSの性能を達成しました。
learningdude
facebook/wav2vec2-baseをファインチューニングした音声処理モデルで、評価セットで53.57%の精度を達成
anuragshas
facebook/wav2vec2 - large - xlsr - 53モデルをベースに微調整したタミル語音声認識モデルで、Common Voiceタミル語データセットで訓練されました。
echarlaix
これはプルーニング最適化されたBART-baseモデルで、要約生成タスク向けに設計されており、元のモデルの53%の重みを保持しています。
jimregan
facebook/wav2vec2-large-xlsr - 53モデルをベースに、ラトビア語のCommon Voiceデータセットで微調整された音声認識モデル
jonatasgrosman
ペルシア語に最適化されたXLSR - 53大規模モデルの音声認識システムで、facebook/wav2vec2-large-xlsr-53アーキテクチャに基づいて微調整されています。
arijitx
facebook/wav2vec2-large-xlsr - 53をベースに微調整されたベンガル語自動音声認識モデルで、OpenSLRデータセットの約4万件の音声データで訓練されています。
mohammed
アラビア語音声認識に対して微調整されたWav2Vec2 - Large - XLSR - 53大規模モデルで、Common VoiceとArabic Speech Corpusデータセットを基に訓練されました。
これはXLSR - 53大規模モデルを微調整したフランス語音声認識モデルで、Common Voiceデータセットで訓練され、高い精度でフランス語の音声をテキストに変換できます。
これはハンガリー語音声認識タスクに対して微調整されたXLSR - 53大規模モデルで、Common VoiceとCSS10データセットを基に訓練されています。
emre
このモデルはfacebook/wav2vec2-large-xlsr-53をCommon Voice 8データセットでファインチューニングしたタタール語(Tatar)自動音声認識モデルで、テストセットのWERは53.16%です。
これはギリシャ語音声認識タスクに対して微調整されたXLSR - 53大規模モデルで、facebook/wav2vec2-large-xlsr-53モデルをベースに、Common Voice 6.1とCSS10データセットを使用して訓練されました。
vneralla
XLSR-Wav2Vec2は多言語音声認識モデルで、言語間事前学習により共有音声表現を学習し、53言語をサポートします。
anton-l
FacebookのXLSR - 53大規模モデルを微調整したエストニア語音声認識モデルで、一般的な音声データセットで30.74%の単語誤り率を達成しました。
facebook
Facebookが開発したポーランド語の自動音声認識モデルで、Wav2Vec2アーキテクチャとXLSR - 53多言語事前学習モデルに基づいています。