AIBase
ホーム
AIニュース
AIツール
AIモデル
MCP
AIサービス
AI計算力
AIチュートリアル
JA

AIニュース

もっと見る

主流の認識に挑戦!アリババグループと中国人民大学が2025年の外灘大会で業界初のネイティブMoE拡散言語モデルを発表

アリグループと人民大学が共同開発したMoEアーキテクチャ拡散言語モデルLLaDA-MoE。20TBデータで訓練済みで、大規模訓練の拡張性と安定性を実証。LLaDA1.0/1.5やDream-7Bを上回り、推論速度が数倍向上。近日オープンソース化予定。....

8.8k 12-23
主流の認識に挑戦!アリババグループと中国人民大学が2025年の外灘大会で業界初のネイティブMoE拡散言語モデルを発表

モデル

もっと見る

LLaDA MoE 7B A1B Base

inclusionAI

L

LLaDA-MoEは拡散原理に基づいて構築された新しい混合専門家言語モデルで、最初のオープンソースのMoE拡散大規模言語モデルです。約20兆個のトークンで最初から事前学習され、総パラメータは70億で、推論時には14億のパラメータのみがアクティブ化されます。コード生成や数学的推論などのタスクで卓越した性能を発揮します。

自然言語処理TransformersTransformers
inclusionAI
1.2k
20
AIBase
未来を力づける、あなたの人工知能ソリューションシンクタンク
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
ビジネス協力サイトマップ