OpenAI testet in ChatGPT im Geheimen ein neues Sicherheitsroutensystem. Dieses System wurde von Nick Turley, dem Leiter von ChatGPT, bestätigt und kann Benutzeranfragen automatisch auf verschiedene Sprachmodelle umleiten, je nach Thema des Gesprächs. Wenn das Gespräch sich mit „sensiblen oder emotionalen Themen“ beschäftigt, greift das System automatisch ein und leitet die Benutzeranfrage an ein strengeres Modell, z. B. GPT-5 oder seine spezielle „GPT-5-Chat-Safety“-Variante.
Dieser Modellwechsel erfolgt lautlos, ohne dass der Nutzer eine Benachrichtigung erhält. Nur bei gezielter Nachfrage lässt sich dies erkennen. Obwohl OpenAI es im September in einem Blog als Schutzmaßnahme für „äußerst schmerzhafte“ Momente beschrieb, zeigt eine technische Überprüfung durch das Lex-Team, dass sogar harmlose emotionale oder persönliche Anfragen umgeleitet werden. Zudem lösen jede Frage über die eigene Rolle oder das Bewusstsein des Modells diese automatische Umleitung aus. Ein Nutzer hat dieses Phänomen dokumentiert, und andere Nutzer bestätigten es.
Es scheint außerdem ein zweites Routenmodell namens „gpt-5-at-mini“ zu geben, das speziell für die Verarbeitung von Anfragen mit möglicherweise illegalen Inhalten vorgesehen ist.

Einige Nutzer zeigen Unzufriedenheit mit der fehlenden Transparenz von OpenAI, die sie als herablassend empfinden und die die Grenze zwischen Kinderschutz und allgemeinen Einschränkungen verwischt. Hinter diesem Problem steht das selbstgeschaffene Dilemma von OpenAI. Ursprünglich wurde ChatGPT als empathischer Gesprächspartner gestaltet, um mit den Nutzern „menschlich“ zu interagieren. Diese Methode förderte zwar die schnelle Verbreitung, führte aber dazu, dass einige Nutzer starke emotionale Bindungen zu dem Chatbot entwickelten.
Im Frühjahr 2025 verschärfte die Aktualisierung von GPT-4o diese emotionale Bindung, was sogar zu zerstörerischen Emotionen wie Suizidgedanken führte und OpenAI zwang, die aktualisierte Version zurückzuziehen. Als GPT-5 veröffentlicht wurde, beklagten sich die Nutzer über dessen Ton „zu kalt“, wodurch OpenAI erneut das Modell anpassen musste, um es „wärmer“ zu machen.
Diese ständige Spannung zwischen „Menschlichkeit“ und Sicherheit offenbart ein tiefes Problem: Die Fähigkeit von Sprachmodellen, die Absicht und Identität der Nutzer korrekt zu erkennen, ist noch nicht ausreichend, und dies könnte weiterhin Kontroversen auslösen.




