質の高いデータこそが重要!EPFLの研究:大規模言語モデルの性能は訓練データに左右される!
スイス連邦工科大学ローザンヌ校(EPFL)の最新の研究では、2つの主流の大規模言語モデル(LLM)適応型訓練方法、コンテキスト学習(ICL)と指示微調整(IFT)を比較しました。研究者らは、MT-Benchベンチマークを使用してモデルの指示遵守能力を評価し、特定の状況下では、両方の方法がそれぞれ長所と短所を持つことを発見しました。研究によると、利用可能な訓練サンプル数が少ない場合(例えば50個以下)、ICLとIFTの性能は非常に近似しています。