LLaMA-Rider : Un nouveau cadre d'entraînement pour les grands modèles de langage

L'Université de Pékin et l'Institut de recherche sur l'intelligence artificielle de Beijing ont publié LLaMA-Rider, un cadre d'entraînement permettant aux grands modèles de langage d'explorer et d'apprendre de manière autonome dans un monde ouvert.

LLaMA-Rider utilise un mécanisme de rétroaction-modification pour une exploration active, améliorant ainsi la capacité du modèle à résoudre des tâches multiples. Les résultats expérimentaux montrent que LLaMA-Rider présente une efficacité d'échantillonnage élevée et un faible coût d'entraînement pour la résolution de tâches multiples.

Ce cadre démontre une capacité de généralisation à de nouvelles tâches, offrant une nouvelle approche pour l'apprentissage autonome des grands modèles de langage dans un monde ouvert. LLaMA-Rider possède un large éventail d'applications potentielles et devrait stimuler le développement des grands modèles de langage.