ELYZA 发布基于 Llama 2 的日语 LLM,参数量达 70 亿,可与 GPT3.5 匹敌
["ELYZA 发布了基于 Meta 的 Llama 2 的日语 LLM「ELYZA-japanese-Llama-2-7b」,参数数量达到 70 亿,性能媲美 GPT3.5。","该模型经过追加事前学习和独特的事后学习,性能在 5 级手动评估中获得最高分,尽管还未达到封闭型 LLM 的水平,但已经与 GPT3.5 相匹敌。","ELYZA 成功地将英语等其他语言的 LLM 能力引入日本语,并通过减少日本语学习量来改进 Meta 的 Llama 2 基础上的模型。"]