今年、大規模言語モデル(LLM)がAI界で注目を集め、特に自然言語処理において著しい進歩を遂げています。新たな研究によると、LLMは推論タスクにおいて誤りを発見するのが難しいことが分かりましたが、提案されたバックトラッキング手法を用いることで、誤りを修正できることが明らかになりました。研究は、LLMは自己修正ができないものの、誤った情報が提供された場合、バックトラッキング手法を用いて修正できることを示しています。本稿では、最新のデータセットとテスト結果をまとめ、現在の最先端LLMが誤りの発見において直面する課題を明らかにします。