LLaMA-Rider: Un Marco de Entrenamiento para LLM

La Universidad de Pekín y el Instituto de Investigación de Inteligencia Artificial de Beijing han publicado el marco de entrenamiento LLaMA-Rider, que dota a los grandes modelos de lenguaje (LLM) de la capacidad de explorar y aprender de forma autónoma en un mundo abierto.

LLaMA-Rider utiliza un mecanismo de retroalimentación-modificación para la exploración activa, mejorando la capacidad del modelo para resolver múltiples tareas. Los resultados experimentales muestran que LLaMA-Rider presenta una alta eficiencia de muestreo y un bajo coste de entrenamiento en la resolución de múltiples tareas.

Este marco demuestra una capacidad de generalización a nuevas tareas, ofreciendo una nueva perspectiva para el aprendizaje autónomo de los grandes modelos de lenguaje en un mundo abierto. LLaMA-Rider tiene un amplio rango de aplicaciones potenciales y impulsará el desarrollo de los grandes modelos de lenguaje.