大規模言語モデルにおけるCoT推論の謎:記憶の達人にして確率の達人?
プリンストン大学とエール大学の研究者らが最近発表した大規模言語モデル(LLM)の「思考連鎖(CoT)」推論能力に関する報告書では、CoT推論の謎が明らかにされています。それは純粋に論理規則に基づく記号推論ではなく、記憶、確率、ノイズ推論など複数の要素を融合したものであるとされています。研究者らは、シーザー暗号解読をテストタスクとして、GPT-4、Claude3、Llama3.1の3つのLLMのパフォーマンスを分析しました。シーザー暗号はシンプルな暗号化方式であり、各文字が別の文字に置き換えられます。