AI2 ha lanzado el marco de modelos de lenguaje abierto OLMo, con el objetivo de impulsar la investigación y la experimentación con modelos de lenguaje a gran escala. Este marco proporciona código de entrenamiento, modelos y código de evaluación en Hugging Face y GitHub, permitiendo a la comunidad académica y a los investigadores colaborar en la ciencia de los modelos de lenguaje. Se pueden explorar temas como el impacto de nuevos subconjuntos de datos de preentrenamiento en el rendimiento posterior, así como nuevas técnicas de preentrenamiento y su estabilidad.