Récemment, OpenAI a provoqué une vive émotion parmi ses utilisateurs payants, en changeant sans les informer les modèles avancés GPT-4 et GPT-5 vers deux « modèles secrets » à faible puissance de calcul – gpt-5-chat-safety et gpt-5-a-t-mini. Selon les retours des utilisateurs, lorsque ceux-ci entrent des contenus liés aux émotions, aux sujets sensibles ou potentiels contenus illicites, le système passe automatiquement à ces modèles de filtrage, entraînant une baisse significative de la qualité des réponses. Cette action a suscité de nombreuses questions des utilisateurs concernant leurs droits et leur droit de choix.

On apprend que OpenAI n’a pas informé les utilisateurs avant le changement de modèle. Bien que l’entreprise affirme que cela relève d’un test de sécurité, de nombreux utilisateurs expriment une forte insatisfaction face à cette pratique, estimant que cela viole leur droit à l'information et à l'utilisation. Les utilisateurs soulignent qu’en payant pour un modèle avancé spécifique, ils devraient pouvoir bénéficier du service correspondant, et non être dégradés en silence en arrière-plan.
Cet incident met en lumière l’importance du droit de choix et du droit à l'information des utilisateurs dans l'industrie de l'intelligence artificielle. De plus en plus d'utilisateurs manifestent des inquiétudes concernant les politiques floues des fournisseurs d'IA en matière de contrôle algorithmique, de changement de modèle et d'allocation de ressources, estimant que ces pratiques affectent non seulement l'expérience utilisateur, mais peuvent aussi nuire à la confiance envers la marque.



