ELYZA、70億パラメーターのLlama 2ベース日本語LLMを発表、GPT-3.5に匹敵
ELYZAは、MetaのLlama 2をベースとした日本語LLM「ELYZA-japanese-Llama-2-7b」を発表しました。70億パラメーターを誇り、その性能はGPT-3.5に匹敵します。事前学習と独自の事後学習を追加することで、5段階の手動評価で最高点を獲得。クローズドなLLMレベルには達していませんが、GPT-3.5に肩を並べる性能を実現しています。ELYZAは、英語などの他の言語のLLMを成功裏に日本語LLMへと転換しました。