元象开源高性能大模型 XVERSE-65B-2 底座版 提升代码和数学能力
["元象开源高性能大模型 XVERSE-65B-2 底座版专注于提升代码和数学能力。","XVERSE-65B-2 在 Continual Pre-Training 中进行了优化,训练 token 总量达 3.2 万亿。","元象的大模型在综合测评中超越了 GPT3.5 和 Llama2-70B,并全面超越开源标杆。","XVERSE-65B 在 SuperCLUE 中文通用大模型综合测评中表现出众。","元象已开源三款大模型,其中 XVERSE-65B 是国内最早开源、最大参数的免费商用模型。"]