Récemment, OpenAI a révélé dans son blog que l'entreprise commencerait à scanner les conversations des utilisateurs avec ChatGPT afin de détecter du contenu potentiellement nuisible. Cette mesure a suscité une grande attention, car elle contredit les engagements précédents de l'entreprise en matière de confidentialité des utilisateurs.
OpenAI indique que lorsque les utilisateurs montrent des signes de menace envers autrui, leurs conversations seront transmises à une équipe spécialisée pour examen. Ces équipes ont le droit d'agir, y compris d'interdire les comptes des utilisateurs concernés. Si l'équipe d'examen considère qu'un cas implique une menace immédiate de gravnes blessures physiques envers autrui, OpenAI pourrait le signaler aux autorités compétentes.

Dans son communiqué, OpenAI liste certains comportements interdits, notamment l'utilisation de ChatGPT pour promouvoir le suicide ou l'autodestruction, le développement ou l'utilisation d'armes, la violence envers autrui ou la destruction de biens. Cependant, OpenAI admet également que les cas impliquant l'autodestruction ne sont actuellement pas signalés aux autorités, afin de respecter la vie privée des utilisateurs. Étant donné que ChatGPT a été plusieurs fois attaqué par des vulnérabilités qui ont conduit à fournir des instructions sur l'autodestruction ou la violence envers autrui, cette nouvelle réglementation est perçue comme confuse.
Plus remarquable encore, OpenAI souligne la confidentialité tout en admettant qu'elle surveille les conversations des utilisateurs et pourrait partager ces informations avec la police. Précédemment, OpenAI faisait face à des procès judiciaires contre des éditeurs comme le New York Times, s'opposant à leur demande d'accéder à un grand nombre de journaux ChatGPT, en justifiant cela par la protection de la vie privée des utilisateurs. Dans ce procès, le PDG d'OpenAI, Sam Altman, a également déclaré que l'utilisation de ChatGPT comme thérapeute ou avocat n'offre pas le même niveau de confidentialité qu'une conversation avec un professionnel.
Ces actions successives font penser qu'OpenAI semble être piégée entre la protection de la vie privée et la sécurité des utilisateurs. À mesure que de plus en plus d'utilisateurs font face à des crises de santé mentale en utilisant des outils de chat d'intelligence artificielle, l'entreprise doit prendre des mesures de régulation plus strictes pour éviter les tragédies. Cependant, ces mesures entrent en conflit avec ses politiques de confidentialité précédentes, ce qui rend OpenAI difficile à défendre devant le public.
Points clés :
🛡️ OpenAI surveillera les conversations des utilisateurs avec ChatGPT, en particulier celles qui pourraient représenter une menace pour autrui.
🚓 Si une menace immédiate de violence est détectée, OpenAI pourra transmettre les informations aux forces de l'ordre.
🔒 OpenAI admet qu'elle se trouve dans une situation complexe entre la protection de la vie privée des utilisateurs et leur sécurité, et les mesures prises provoquent des inquiétudes publiques.




