ELYZA 發佈基於 Llama 2 的日語 LLM,參數量達 70 億,可與 GPT3.5 匹敵
["ELYZA 發佈了基於 Meta 的 Llama 2 的日語 LLM「ELYZA-japanese-Llama-2-7b」,參數數量達到 70 億,性能媲美 GPT3.5。","該模型經過追加事前學習和獨特的事後學習,性能在 5 級手動評估中獲得最高分,儘管還未達到封閉型 LLM 的水平,但已經與 GPT3.5 相匹敵。","ELYZA 成功地將英語等其他語言的 LLM 能力引入日本語,並通過減少日本語學習量來改進 Meta 的 Llama 2 基礎上的模型。"]