Große Sprachmodelle (LLMs) und die Technik der Denkketten-Prompts (Chain-of-Thought, CoT) haben in NLP-Aufgaben erhebliche Fortschritte erzielt. Forschungen zeigen die entscheidende Rolle der Länge der Inferenzkette für die Leistung von CoT auf. Experimentelle Ergebnisse zeigen einen klaren Zusammenhang zwischen der Länge der Inferenzkette und den Fähigkeiten großer Sprachmodelle innerhalb eines bestimmten Bereichs.