最近、百度が保有する文心大規模モデルシリーズは大きなアップグレードを遂げました。ERINE-4.5-21B-A3B-Thinkingが正式にオープンソース化され、Hugging Faceプラットフォームでテキスト生成モデルのランキング首位に登場し、全体のモデルランキングでは第3位を記録しました。この軽量なMixture-of-Experts(MoE)モデルは優れた推論能力とパラメータ効率を持ち、業界から広く注目されています。これは中国のAIオープンソースエコシステムにおける新たなターニングポイントを示しています。

モデルの主要仕様とイノベーションデザイン

ERNIE-4.5-21B-A3B-Thinkingは先進的なMoEアーキテクチャを採用しており、総パラメータ数は21Bですが、1トークンあたりには3Bのパラメータのみがアクティブになります。このようなスパースなアクティベーション機構により、計算コストを大幅に削減しながらも高性能な出力を維持しています。このモデルは128Kの長文ウィンドウをサポートしており、複雑な長文タスク、例えば論理的推論、数学的問題解決や学術的分析などに特化しています。

image.png

主流のモデルがPyTorchフレームワークに依存している一方、ERNIE-4.5シリーズは百度が自社開発したPaddlePaddleというディープラーニングフレームワークを基盤としてトレーニングおよび最適化を行っています。この独自のフレームワークの設計により、マルチモーダルタスクにおける互換性が向上し、効率的なハードウェア対応が確保されています。現在、自社フレームワークで大規模モデルをトレーニングする企業としては、百度とグーグルしかいないことから、その技術の自主性とイノベーションの深さが際立っています。

性能表現:効率的な推論で業界の巨頭を挑戦

最新のベンチマークテストによると、このモデルは論理的推論、数学、科学、コード作成、テキスト生成などのタスクにおいて優れた性能を発揮しており、一部の指標ではGemini2.5ProやGPT-5レベルのモデルに近づいたり、それを上回る結果も出ています。総パラメータ数は21B(約Qwen3-30Bの70%)でありながら、BBHやCMATHなどの数学的推論ベンチマークでの得点は同種の競品を上回っており、非常に高いパラメータ効率を示しています。

また、モデル内には効率的なツール呼び出し機能が搭載されており、構造化された関数呼び出しや外部APIの統合をサポートします。これはプログラム合成、記号的推論、マルチエージェントワークフローなどのシナリオに適しています。長文理解に関しては、専用のトレーニングを通じて、膨大な情報処理と学術レベルの合成コンテンツ生成が安定して行えるようになっており、幻覚問題を大幅に軽減しています。このモデルは中英両言語をサポートしており、グローバルな開発者や企業向けアプリケーションにも適しています。

オープンソースコミュニティからのフィードバックによると、このモデルはHugging Faceでダウンロード数とトレンド指数が急上昇しており、テキスト生成分野で人気のある選択肢となっています。開発者はvLLM、Transformers4.54+、FastDeployなどのツールを介して簡単に統合可能で、ローカル環境への配置またはクラウド上の推論を実現できます。

オープンソースの意義:AIの民主化とエコシステム構築の促進

ERNIE-4.5-21B-A3B-ThinkingはApache 2.0ライセンスで公開され、商用利用も可能です。これにより、AI技術の導入障壁がさらに低くなります。6月に百度が文心4.5シリーズの他の10モデルをオープンソース化した後、今回のリリースにより、百度はオープンソースAI分野でのリーダー的地位を強化しました。現在、Hugging Faceプラットフォームの上位モデルの多くが中国のオープンソース成果であり、これは中国のAIがMoEアーキテクチャと推論最適化において世界的な競争力を持っていることを示しています。

文心大規模モデルの最新バージョンであるこのモデルは、指示に従う能力や知識集約型タスクの性能を向上させ、複数ラウンドの強化学習により「思考」モードを強化しています。視覚・言語タスクでは、VLバージョンも優れた性能を発揮し、MathVistaやMMMUなどのベンチマークでOpenAI-o1との差を縮めています。

業界への影響と今後の展望