Mit dem raschen Fortschritt der künstlichen Intelligenz (KI)-Technologie beginnen immer mehr Forscher, große Sprachmodelle wie ChatGPT intensiv zu untersuchen. Kürzlich veröffentlichte eine Forschungsgruppe der Arizona State University in einem auf der Preprint-Plattform arXiv erscheinenden Paper eine bemerkenswerte Studie, in der darauf hingewiesen wird, dass unsere Kenntnisse über diese KI-Modelle möglicherweise falsch sein könnten. Sie argumentieren, dass diese Modelle eigentlich nicht wirklich denken oder schließen, sondern lediglich nach Korrelationen suchen.

In dem Papier betonen die Forscher, dass obwohl diese KI-Modelle oft scheinbar logische Zwischenschritte generieren, bevor sie Antworten liefern, dies nicht bedeutet, dass sie tatsächlich Schließen durchführen. Die Forschungsgruppe betont, dass die menschenähnliche Interpretation ihrer Verhalten dazu führen könnte, dass die Öffentlichkeit ihre Funktionsweise falsch versteht. Sie zeigen an, dass das "Denken" der großen Modelle tatsächlich darin besteht, Korrelationen zwischen Daten zu berechnen, und nicht Ursache und Wirkung zu verstehen.

Großes Modell Metaverse (1)

Quellenhinweis: Bild generiert von KI, Lizenzdienstleister Midjourney

Um ihre Argumente zu stützen, erwähnen die Forscher auch einige deduktiven Modelle wie DeepSeek R1, die in bestimmten Aufgaben herausragend performen. Dies beweist jedoch nicht, dass sie menschenähnliches Denken besitzen. Untersuchungen zeigen, dass es in den Outputs von KIs keinen echten Schlussfolgerungsprozess gibt. Daher könnte es für Benutzer irreführende Zuversicht hinsichtlich ihrer Problemlösungsfähigkeit erzeugen, wenn sie die generierten Zwischeninput als Schlussfolgerungsprozess auffassen würden.

Diese Studie mahnt uns daran, in einer zunehmend KI-abhängigen Ära vorsichtiger mit der Bewertung der Fähigkeiten dieser Technologien umzugehen. Mit dem vertieften Verständnis der Fähigkeiten der großen Modelle könnte sich die Zukunft der KI-Forschung in Richtung eines klareren Erklärungsmodells entwickeln, um Benutzern einen besseren Einblick in die tatsächliche Funktionsweise von KI zu geben.