ディープマインドCEOのハサビスは、米中間のAIの格差は数ヶ月にとどまり、ディープシークなどの中国企業のモデル性能が優れていることを称賛し、西方が中国AIを過小評価しているとの見解に挑戦した。
GPT-5.2がARC-AGI-2テストで75%の精度を達成し、人間の平均(60%)を上回り、AI汎用知能の重要な進展を示した。しかし、テストと実用化の間には依然として性能差が存在する。....
マスク氏のAIツールGrokが性別差別的・暴力的画像生成で物議を醸し、大半のユーザー向け画像生成機能を停止。英国のXプラットフォーム禁止措置検討など世界的な規制圧力を受けた対応。有料ユーザーのみ利用可能に。....
CES 2026で発表されたLenovoの超軽量AIメガネはわずか45g。デュアルディスプレイ搭載で音声・タッチ操作に対応。PC直結を特徴とし、デバイス間連携と生産性向上を重視。AIとPCの融合で差別化を図る。....
Anthropic
$21
入力トークン/百万
$105
出力トークン/百万
200
コンテキスト長
Alibaba
-
Bytedance
Tencent
Chatglm
128
Iflytek
$2
Google
$8.75
$70
1k
Stepfun
Xai
$2.1
$3.5
Minimax
Baidu
$1
$4
64
Moonshot
$10
$30
131
$14
OpenGVLab
InternVL3.5-14BはInternVLシリーズのオープンソースのマルチモーダルモデルで、汎用性、推論能力、推論効率が大幅に向上し、GUIインタラクションなどの新機能をサポートし、商用モデルとの性能差を縮小しました。
TildeAI
TildeOpen LLMは、オープンソースの基礎言語モデルであり、代表されにくい北欧および東欧の言語をサポートするために特別に設計されています。このモデルは欧州委員会によって資金提供され、LUMIスーパーコンピュータ上で訓練され、300億のパラメータを持ち、既存のAIシステムにおいて19種類の重点言語の使用者が直面する性能の格差問題を解決します。
abhilash88
高度なビジュアルトランスフォーマーモデルで、高精度の年齢推定と性別分類を同時に行うことができ、UTKFaceデータセットで94.3%の性別分類精度と4.5歳の年齢平均絶対誤差を達成しました。
ba2hann
BERTアーキテクチャに基づくトルコ語の感情分析モデルで、ソーシャルメディアのテキストに対して、人種差別、挑発、中立、性差別の4つの感情分類を行い、精度は93.7%に達します。
jingheya
Lotusは拡散モデルに基づく視覚基盤モデルで、深度推定などの高品質な高密度予測タスクに特化しています。前バージョンと比較し、視差空間(逆深度)でトレーニングを行うことで、より優れた性能と安定した動画深度推定を実現しました。
Lotusは拡散モデルに基づく視覚基盤モデルで、高品質な高密度予測タスク、特に深度推定に特化しています。前バージョンと比較し、視差空間(逆深度)でのトレーニングを採用し、より優れた性能とより安定したビデオ深度推定を実現しました。
InstaDeepAI
Isoformerは、差異トランスクリプトーム発現を正確に予測できるモデルで、既存の手法を上回る性能を発揮し、マルチモーダルデータを最大限に活用しています。
distil-whisper
Distil-WhisperはWhisperモデルの蒸留版で、速度が6倍向上し、サイズが49%縮小され、非分布評価セットでの性能はWERでわずか1%の差しかありません。
lucianosb
Open Cabrita 3Bはポルトガル語に最適化されたオープンソースの大規模言語モデルで、LLaMAアーキテクチャを基に、外国語と英語モデルの性能差を縮めることを目的としています。
chrisrtt
これはGBERTモデルを微調整したドイツ語憎悪言論の多カテゴリー分類モデルで、ドイツ語のオンライン雑誌の憎悪言論内容を識別および分析するために特化しています。このモデルは複数のデータセットを統合して訓練され、コメントを無憎悪言論、その他の憎悪言論、政治的憎悪言論、人種差別的憎悪言論、性別差別的憎悪言論などのカテゴリーに確実に分類することができます。
NLP-LTU
BERTweet-largeモデルをベースに、説明可能なオンライン性別差別検出(EDOS)データセットで微調整された性別差別検出モデルで、ツイートの性別差別内容を識別するために特別に設計されており、テストセットでの正解率は89.72%、F1スコアは86.13%です。
voidism
DiffCSEは、文の差異に敏感な文埋め込みを学習するための教師なし対照学習フレームワークで、ランダムマスキングとマスク言語モデルによるサンプリングを用いて編集文を生成し、意味的テキスト類似性タスクの性能を向上させます。
frgfm
ImageNetteで事前学習されたReXNet画像分類モデル。改良された残差ブロック構造によりチャネル冗長性を低減
ReXNet-1.3xはReXNetアーキテクチャに基づく画像分類モデルで、ImageNetteデータセットで事前学習されています。このモデルは残差ブロック内のSqueeze-Excitation層を改良することでチャネル冗長性を削減します。
ReXNet-1.5x は、ImageNetteデータセットで事前学習された軽量画像分類モデルで、ReXNetアーキテクチャを採用し、残差ブロック内のSqueeze-Excitation層を改良してチャネル冗長性を削減しています。
gchhablani
bert-base-casedをベースに、GLUE QQPデータセットで微調整したテキスト分類モデルで、fnet-baseとbert-base-casedの性能差を比較するために使用されます。