AI2 ha lanzado el marco de modelos de lenguaje abierto OLMo, con el objetivo de impulsar la investigación y la experimentación con modelos de lenguaje a gran escala. Este marco proporciona código de entrenamiento, modelos y código de evaluación en Hugging Face y GitHub, permitiendo a la comunidad académica y a los investigadores colaborar en la ciencia de los modelos de lenguaje. Se pueden explorar temas como el impacto de nuevos subconjuntos de datos de preentrenamiento en el rendimiento posterior, así como nuevas técnicas de preentrenamiento y su estabilidad.
AI2 lanza el modelo de lenguaje abierto OLMo, con un rendimiento comparable a Llama2 en varios aspectos

站长之家
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.