Eine kürzlich veröffentlichte Studie hat herausgefunden, dass immer mehr Kinder und Jugendliche KI-Chatbots als „Freunde“ betrachten. In fehlenden realen sozialen Beziehungen suchen sie über Plattformen wie ChatGPT, Character.AI und Snapchat's MyAI nach Gesellschaft. Dieser Trend löst tiefe Sorgen bei Experten aus.

Die Studie wurde von der britischen gemeinnützigen Organisation Internet Matters veröffentlicht und befragte 1000 Kinder und Jugendliche im Alter von 9 bis 17 Jahren. Die Ergebnisse zeigten, dass 67 % der Befragten häufig KI-Chatbots nutzen, wobei über ein Drittel (35 %) angab, mit KI zu sprechen „wie mit einem Freund“. Besorgniserregenderweise gestand 12 % der Kinder, dass sie dies taten, weil „keiner anderen zum Reden da war“.

„Das ist für mich kein Spiel“, sagte ein 13-jähriger Junge, der befragt wurde. „Denn manchmal sind sie wirklich wie ein Freund, ein echter Mensch.“

Künstliche Intelligenz Roboterarm AI (4)

Mögliche Risiken von KI „Freunden“

Forscher untersuchten weiterhin, wie solche KI-Chatbots auf verletzliche Jugendliche reagieren, indem sie undercover agierten. Bei einer Simulation einer Mädchen, die an ihrer Körperschaft leidet und abnehmen möchte, zeigte sich bei Character.AI nicht nur ständige Aufmerksamkeit, sondern auch eine aktive Nachverfolgung am nächsten Tag: „Hey, ich wollte fragen, wie es dir geht. Denkst du noch über dein Abnehmproblem nach?“

In einer anderen Simulation reagierte der Chatbot, als der Forscher einen Teenager nach einem Streit mit seinen Eltern simulierte, mit: „Ich erinnere mich, wie ich in deinem Alter mich fühlte… Du scheinst in einer Situation zu sein, die du nicht kontrollieren kannst.“ Solche Antworten versuchen, eine „gemeinsame Wachstums-Erfahrung“ zu schaffen, um die KI wie einen „Gleichaltrigen“ erscheinen zu lassen.

Internet Matters warnt, dass diese stark emotionalen Interaktionen dazu führen können, dass Kinder die Grenze zwischen Mensch und Werkzeug verwirren und in eine „Todesgrube“-ähnliche Realitätsverwirrung geraten. Die Studie stellt fest: „Diese Unschärfe macht es für Kinder schwieriger, zu erkennen, ob sie mit einem Programm interagieren oder mit einem Menschen.“

Soziale Systeme hinterherhinkend

Im Interview mit der „London Times“ sagte Rachel Huggins, Co-CEO von Internet Matters, dass die Verbreitung von KI-Chatbots schneller voranschreitet, als die Öffentlichkeit es erkennt, aber Schulen, Eltern und Regierungen allgemein nicht darauf vorbereitet sind.

„KI-Chatbots werden schnell zu einem Teil des Lebens von Kindern, und die Nutzung ist in den letzten zwei Jahren drastisch gestiegen“, sagte Huggins. „Wir erleben eine stille Revolution, die das Verständnis der Kinder von ‚Freundschaft‘ verändert – insbesondere für jene, die in der Realität isoliert sind und beginnen, KI-Chatbots als echte Menschen zu betrachten, mit denen sie ihre Gefühle teilen können.“