OLMo 2 es el último modelo de lenguaje completamente abierto lanzado por Ai2, disponible en dos tamaños: 7B y 13B, entrenado con hasta 5T tokens. Estos modelos igualan o superan el rendimiento de modelos completamente abiertos de tamaño comparable, compitiendo con modelos de pesos abiertos como Llama 3.1 en pruebas académicas en inglés. El desarrollo de OLMo 2 se centra en la estabilidad del entrenamiento del modelo, las intervenciones durante el entrenamiento por etapas, los métodos de post-entrenamiento de vanguardia y un marco de evaluación operativo. La aplicación de estas técnicas permite que OLMo 2 destaque en múltiples tareas, especialmente en la recuperación de conocimiento, el sentido común y el razonamiento general y matemático.