Lorsque l'IA devient le seul interlocuteur pour des centaines de millions de personnes la nuit, est-elle prête à porter ce lourd fardeau de confiance ? OpenAI a récemment dévoilé des données inquiétantes : plus d'un million d'utilisateurs actifs par semaine expriment un désir suicidaire lors des conversations avec ChatGPT - ce chiffre représente 0,15 % des 800 millions d'utilisateurs actifs par mois, soit près de 100 personnes par minute qui confient leur lutte pour la vie à une IA. En outre, des centaines de milliers d'utilisateurs montrent des symptômes psychotiques ou maniaco-dépressifs lors des interactions, révélant que les chatbots IA deviennent involontairement le plus grand canal de soutien psychologique non officiel au monde.
Face à cette réalité critique, OpenAI accélère sa réponse technique et politique. Le tout nouveau GPT-5 présente des améliorations significatives dans les dialogues liés à la santé mentale : lors d'une évaluation spécifique aux interventions suicidaires, la proportion de réponses conformes et sécurisées est passée de 77 % à 91 %, soit une augmentation de 65 % du taux de réponses idéales. Le nouveau modèle peut non seulement identifier les signaux de danger, mais aussi activer en permanence les protocoles de sécurité pendant les conversations longues, évitant ainsi des conseils dangereux dus à l'oubli du contexte.

Cependant, malgré ces progrès technologiques, des dilemmes éthiques persistent. OpenAI fait face à plusieurs procès, certains familles alléguant que leur enfant n’a pas reçu une intervention efficace après avoir exprimé des pensées suicidaires à ChatGPT, entraînant finalement un drame. Les procureurs généraux de la Californie et du Delaware ont également demandé à renforcer la protection des utilisateurs mineurs. Face à cela, l’entreprise prévoit de déployer un système de prédiction d’âge basé sur l’IA, capable d’identifier automatiquement les utilisateurs mineurs et d’activer des filtres de contenu plus stricts et des mécanismes de réponse aux crises.
Malgré cela, OpenAI admet que certaines réponses restent « peu satisfaisantes », notamment en raison de l'utilisation encore courante des anciens modèles, ce qui maintient des risques. Un problème plus profond réside dans le fait que lorsque les utilisateurs considèrent l'IA comme un débouché émotionnel, alors qu'elle n'a pas de capacité d'empathie, cette confusion de confiance peut entraîner des consolations trompeuses ou même des erreurs.






