OpenAIの内部調査によると、AIツールは従業員の効率を大幅に向上させ、1日あたり40〜60分を節約。75%の従業員が速度または品質の向上を実感。データサイエンスチームの効果が最も大きく、1日58分短縮。企業の有料利用枠は700万を突破。....
国際エネルギー機関の報告書によると、2023年のグローバルデータセンター投資は580億ドルに達し、初めて石油探査支出(540億ドル)を上回った。これは経済構造の転換を示しており、特に生成型AIが気候変動を悪化させる可能性があるという文脈において、データセンターと石油業界の比較が注目されている。
騰訊2025年Q3総収入1928.7億元、前年比15%増。ToB事業が582億元で10%成長。AI技術需要がクラウドサービスとWeChatミニショップの成長を牽引。混元大モデルが権威ランキングで首位維持、AI戦略の成果を示す。....
ByteDanceがInfinityStarフレームワークを発表。動画生成効率が大幅向上し、5秒の720p動画生成が58秒に短縮。革新的な時空間分離設計により、画像生成、テキストからの動画生成、動画続き作成など多様な視覚タスクを統一サポート。....
nomic-ai
Nomic Embed Multimodal 3Bは最先端のマルチモーダル埋め込みモデルで、視覚文書検索タスクに特化しており、統一テキスト-画像エンコーディングをサポートし、Vidore-v2テストで58.8 NDCG@5という卓越した性能を達成しました。
blueapple8259
このモデルはbigcode/starcoderdataデータセットの58のPythonファイルのうち4つで学習されており、主にコード関連タスクに使用されます。
Krithika-p
facebook/wav2vec2-baseをファインチューニングしたオーディオ分類モデルで、評価データセットで58.92%の精度を達成
timinar
小ラクダモデルは5800万パラメータの言語モデルで、LLaMAとGPT2を蒸留して作成され、小言語モデルチャレンジに特化して設計されています。
nlpai-lab
KULLM-Polyglot-5.8B-v2は、EleutherAI/polyglot-ko-5.8bをベースに、KULLM v2データセットでパラメータ効率的に微調整された大規模言語モデルのバージョンで、韓国語の自然言語処理タスクに特化して最適化されており、パラメータ規模は58億です。
MuhammadIqbalBazmi
このモデルはfacebook/wav2vec2-conformer-rel-pos-large-960h-ftをファインチューニングした音声意図分類モデルで、評価セットで58.33%の精度を達成しました。
EleutherAI
Polyglot-Ko-5.8BはEleutherAIの多言語チームによって開発された大規模な韓国語自己回帰型言語モデルで、58億のパラメータを持ち、863GBの韓国語データでトレーニングされています。
cointegrated
google/mt5-baseをベースにしたコンパクト版で、ロシア語と英語用に最適化され、パラメータ数が58%削減されています。
Muennighoff
SGPT-5.8Bは58億パラメータ規模の文変換器モデルで、加重平均とNLI(自然言語推論)微調整によって最適化され、文の類似度計算と特徴抽出タスクに特化しています。
韓国の美容(K - Beauty)情報を提供するMCPサーバーで、リアルタイム検索、ブランドデータベース、成分分析、AIによる肌の写真分析をサポートし、58以上のブランドとパーソナライズされたスキンケア推薦が含まれています。