深圳元象信息科技有限公司は先日、中国最大のMixture of Experts(MoE)オープンソース大規模言語モデルであるXVERSE-MoE-A36Bの公開を発表しました。このモデルの公開は、中国におけるAI分野における大きな進歩を示しており、国産オープンソース技術を国際的なトップレベルに引き上げます。
多言語対応の大規模言語モデルで、幅広い分野のテキスト生成に対応しています。