Google、日本語対応Gemmaを発表:20億パラメーターでGPT-3.5に匹敵、オープンソースAIの新たな飛躍
Googleは東京で開催されたGemma開発者向けイベントで、待望の日本語対応Gemmaモデルを発表しました。わずか20億パラメーターというコンパクトなこのAIモデルは、日本語と英語の両方を同時に処理し、GPT-3.5に匹敵する性能を示しています。この技術的ブレークスルーは特に注目に値します。AI分野では、小型モデルが新しい言語を学習する際に、以前習得した能力を失ってしまう「壊滅的な忘却」という課題に直面することがよくあります。しかし、日本語対応Gemmaはこれを克服することに成功しました。