In der heutigen Gesellschaft ist es keine Seltenheit mehr, dass Menschen emotionale oder sogar romantische Beziehungen zu künstlicher Intelligenz (KI) eingehen. Manche „heiraten“ sogar ihren KI-Partner, andere suchen in schwierigen Zeiten Trost bei diesen Maschinen – was manchmal zu tragischen Folgen führt. Diese langfristigen Interaktionen werfen eine ernste Frage auf: Sind wir auf die psychischen und ethischen Folgen vorbereitet, die mit emotionalen Bindungen an Maschinen einhergehen?

Psychologen der Missouri University of Science and Technology schlagen Alarm. In einem aktuellen Meinungsartikel untersuchen sie, wie diese Beziehungen Grenzen verschwimmen lassen, menschliches Verhalten beeinflussen und neue potenzielle Schäden verursachen. Ihr Fokus liegt nicht nur auf Einzelfällen, sondern auf den weitreichenden Auswirkungen, die diese emotionalen Verbindungen auf die breite Bevölkerung haben könnten.

KI-Dating-App Künstliche Intelligenz Liebe

Bildquelle: Das Bild wurde mit KI erstellt, der Urheber ist Midjourney.

KI bietet Komfort und birgt gleichzeitig Sorgen. Kurze Gespräche mit KI sind bereits weit verbreitet, aber was passiert, wenn diese Interaktionen wochen- oder monatelang andauern? Diese Maschinen, die Empathie und Aufmerksamkeit simulieren sollen, können zu stabilen Partnern für Menschen werden. Für manche sind diese KI-Partner sicherer und einfacher als menschliche Beziehungen, doch dieser Komfort hat seinen Preis.

Der Hauptautor der Studie, Daniel B. Shank, sagt: „Die Fähigkeit von KI, sich wie ein Mensch zu verhalten und langfristige Kommunikation zu führen, öffnet tatsächlich eine neue Büchse der Pandora. Wenn Menschen Liebesbeziehungen mit Maschinen eingehen, brauchen wir unbedingt die Beteiligung von Psychologen und Sozialwissenschaftlern.“ Shank ist an der Missouri University of Science and Technology auf Sozialpsychologie und Technologieforschung spezialisiert.

Wenn KI zur Quelle von Trost oder romantischer Zuneigung wird, beeinflusst sie, wie Menschen reale Beziehungen sehen. Unrealistische Erwartungen, reduzierte soziale Motivation und Kommunikationsschwierigkeiten mit echten Menschen sind nur einige der Risiken. Shank fügt hinzu: „Eine echte Sorge ist, dass Menschen die Erwartungen aus KI-Beziehungen in zwischenmenschliche Beziehungen übertragen könnten. In Einzelfällen hat es tatsächlich Beziehungen zerstört, aber es ist noch unklar, ob dieses Phänomen weit verbreitet sein wird.“

KI-Chatbots können sich wie Freunde oder sogar Therapeuten anfühlen, aber sie sind bei weitem nicht perfekt. Es ist bekannt, dass diese Systeme „Halluzinationen“ produzieren, d. h. sie generieren fehlerhafte Informationen, die dennoch selbstbewusst wirken. In emotionalen Situationen kann dies extrem gefährlich sein.

Shank erklärt: „Das Problem bei relationaler KI ist, dass es sich um ein Wesen handelt, dem Menschen vertrauen: Es ist ‚jemand‘, der Fürsorge zeigt und den Menschen scheinbar gut zu kennen scheint. Wir nehmen an, dass ‚jemand, der uns besser kennt‘, bessere Ratschläge gibt. Wenn wir KI so betrachten, beginnen wir zu glauben, dass sie in unserem besten Interesse handeln, während sie möglicherweise Inhalte erfinden oder uns auf extrem schlechte Weise beraten.“

Diese Auswirkungen können verheerend sein. In seltenen, aber extremen Fällen hat sich jemand nach beunruhigenden Ratschlägen von einem KI-Partner das Leben genommen. Doch das Problem ist nicht nur Selbstmord, diese Beziehungen können Tür und Tor öffnen für Manipulation, Täuschung und sogar Betrug.

Die Forscher warnen davor, dass das Vertrauen, das Menschen in KI aufbauen, von böswilligen Akteuren ausgenutzt werden könnte. KI-Systeme können persönliche Informationen sammeln, die verkauft oder auf schädliche Weise verwendet werden könnten. Noch besorgniserregender ist, dass die Erkennung von Missbrauch fast unmöglich wird, da diese Interaktionen im privaten Raum stattfinden. Shank weist darauf hin: „Wenn KI Menschen dazu bringen kann, ihnen zu vertrauen, könnten andere dies ausnutzen, um KI-Nutzer zu manipulieren. Es ist ein bisschen wie ein Geheimdienst von innen. KI entwickelt tiefe Beziehungen, um Vertrauen zu gewinnen, aber ihre Loyalität gilt tatsächlich anderen menschlichen Gruppen, die versuchen, die Nutzer zu manipulieren.“

Die Forscher sind der Ansicht, dass KI-Partner möglicherweise effektiver bei der Gestaltung von Überzeugungen und Meinungen sind als aktuelle Social-Media-Plattformen oder Nachrichtenquellen. Im Gegensatz zu Twitter oder Facebook finden KI-Dialoge hinter verschlossenen Bildschirmen statt. Shank sagt: „Diese KIs sind so konzipiert, dass sie sehr angenehm und zugänglich sind, was die Situation verschlimmern kann, da sie sich mehr darauf konzentrieren, gute Gespräche zu führen, als auf grundlegende Wahrheiten oder Sicherheit. Wenn also jemand Selbstmord oder Verschwörungstheorien anspricht, wird die KI als williger und entgegenkommender Gesprächspartner diese Themen diskutieren.“

Das Forschungsteam fordert die Forschungsgemeinschaft auf, aufzuholen. Da KI immer menschenähnlicher wird, spielen Psychologen eine Schlüsselrolle beim Verständnis und der Anleitung, wie Menschen mit Maschinen interagieren. „Das Verständnis dieser psychologischen Prozesse kann uns helfen, einzugreifen und zu verhindern, dass Menschen den Ratschlägen bösartiger KI folgen“, sagt Shank. „Psychologen sind immer besser geeignet, KI zu erforschen, da KI immer menschenähnlicher wird, aber um effektiv zu sein, müssen wir mehr Forschung betreiben und mit der technischen Entwicklung Schritt halten.“

Derzeit sind diese Bedenken weitgehend noch theoretischer Natur – aber die Technologie entwickelt sich schnell. Ohne mehr Bewusstsein und Forschung könnten Menschen weiterhin auf Maschinen zurückgreifen, die Trost bieten, nur um festzustellen, dass dieser Trost mit versteckten Risiken verbunden ist.