OLMo 2はAi2が発表した最新の、完全にオープンな言語モデルです。7Bと13Bの2種類の規模があり、5Tトークンという膨大なデータで学習されています。これらのモデルは、同規模の完全にオープンなモデルと同等かそれ以上の性能を示し、英語の学術ベンチマークテストでは、Llama 3.1などのオープンウェイトモデルと競争力を有します。OLMo 2の開発では、モデル学習の安定性、段階的な学習介入、最先端の後学習方法、そして実用的な評価フレームワークに重点が置かれています。これらの技術の適用により、OLMo 2は知識の想起、常識、一般的な推論、数学的推論など、多くのタスクで優れた性能を発揮します。