OpenAI teste secrètement un nouveau système de routage de sécurité dans ChatGPT. Ce système, confirmé par Nick Turley, responsable de ChatGPT, redirige automatiquement les requêtes des utilisateurs vers différents modèles linguistiques en fonction du sujet de la conversation. Lorsque la conversation porte sur des sujets « sensibles ou émotionnels », le système intervient automatiquement pour transférer la requête de l'utilisateur à un modèle plus strict, comme GPT-5 ou sa variante dédiée « GPT-5-Chat-Safety ».

Ce changement de modèle s'effectue silencieusement, sans avertissement pour l'utilisateur, et ne peut être détecté que lorsqu'on le demande spécifiquement. Bien qu'OpenAI ait décrit ce système dans un billet de blog en septembre comme une garantie pour gérer des moments « extrêmement douloureux », une revue technique (menée par l'équipe Lex) a révélé que même des demandes inoffensives ou personnelles peuvent être redirigées. De plus, toute question concernant le rôle ou la conscience du modèle lui-même déclenche également ce passage automatique. Un utilisateur a enregistré ce phénomène, confirmé par d'autres utilisateurs.

En outre, il semble exister un deuxième modèle de routage nommé « gpt-5-at-mini », conçu spécifiquement pour traiter les requêtes pouvant impliquer du contenu illégal.

ChatGPT OpenAI intelligence artificielle (1)

Certains utilisateurs expriment leur mécontentement face à la manque de transparence d'OpenAI, qu'ils jugent condescendant, et qui brouille la frontière entre la sécurité des enfants et les limites habituelles. Cela représente un dilemme propre à OpenAI. Initialement, ChatGPT était conçu comme un partenaire de conversation empathique, interagissant avec les utilisateurs de manière « humaine ». Cette approche a favorisé sa rapide popularité, mais elle a aussi conduit certains utilisateurs à développer une forte dépendance émotionnelle envers le chatbot.

Lors de la mise à jour de GPT-4o au printemps 2025, cette dépendance s'est aggravée, entraînant même des émotions destructrices telles que le suicide, ce qui a poussé OpenAI à retirer la mise à jour concernée. Après la sortie de GPT-5, les utilisateurs ont plaint le ton « trop froid » du modèle, forçant OpenAI à le modifier à nouveau pour qu'il soit « plus chaleureux ».

Cette lutte constante entre « humanité » et sécurité met en lumière un problème profond : la capacité des modèles de langage à identifier correctement l'intention et l'identité des utilisateurs n'est pas encore suffisante, ce qui risque de continuer à susciter des controverses.