北京大学と北京智源人工知能研究院は、大規模言語モデルにオープンワールドでの自律的な探索と学習能力を与えるLLaMA-Rider訓練フレームワークを発表しました。
LLaMA-Riderは、フィードバックと修正のメカニズムを用いて能動的な探索を行い、モデルのマルチタスク解決能力を向上させます。実験結果によると、LLaMA-Riderはマルチタスク解決において、高いサンプリング効率と低い訓練コストを示しました。
このフレームワークは、新しいタスクへの汎化能力を示しており、大規模言語モデルのオープンワールドにおける自律学習のための新しいアプローチを提供します。LLaMA-Riderは幅広い応用が期待され、大規模言語モデルの発展を促進するでしょう。