元象オープンソース高性能大規模言語モデル XVERSE-65B-2 ベース版 コードと数学能力の向上
元象オープンソース高性能大規模言語モデル XVERSE-65B-2 ベース版は、コードと数学能力の向上に特化しています。XVERSE-65B-2 は、継続的プリトレーニング (Continual Pre-Training) により最適化され、総トークン数は3.2兆に達します。元象の大規模言語モデルは、総合的な評価においてGPT3.5やLlama2-70Bを上回り、オープンソースのベンチマークを全面的に凌駕しています。XVERSE-65BはSuperCLUE中国語汎用大規模言語モデル…