AIBase
ホーム
AIニュース
AIツール
AIモデル
MCP
AIサービス
AI計算力
AIチュートリアル
JA

AIニュース

もっと見る

元象がMoEオープンソース大規模言語モデルXVERSE-MoE-A36Bを発表、活性化パラメーターは36Bに達する

深圳元象信息科技有限公司は先日、中国最大のMixture of Experts(MoE)オープンソース大規模言語モデルであるXVERSE-MoE-A36Bの公開を発表しました。このモデルの公開は、中国におけるAI分野における大きな進歩を示しており、国産オープンソース技術を国際的なトップレベルに引き上げます。

7.5k 14 時間前
元象がMoEオープンソース大規模言語モデルXVERSE-MoE-A36Bを発表、活性化パラメーターは36Bに達する

AI製品

もっと見る
XVERSE-MoE-A36B

XVERSE-MoE-A36B

多言語対応の大規模言語モデルで、幅広い分野のテキスト生成に対応しています。

AIモデル
7.8k
AIBase
未来を力づける、あなたの人工知能ソリューションシンクタンク
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
ビジネス協力サイトマップ