Récemment, la Commission fédérale du commerce (FTC) des États-Unis a annoncé qu'elle enquêterait sur sept entreprises technologiques développant des chatbots d'intelligence artificielle destinés aux mineurs. Ces sept sociétés sont Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap et xAI. Cette enquête vise à comprendre comment ces entreprises évaluent la sécurité de leurs chatbots, leurs modèles de revenus, ainsi que les mesures prises pour limiter les effets négatifs sur les enfants et les adolescents. De plus, l'enquête portera sur le fait que les parents soient informés des risques potentiels.

Un robot IA et un humain négocient

Note de la source de l'image : l'image a été générée par IA, le service de licence est Midjourney

Au cours des dernières années, les chatbots d'intelligence artificielle ont fait l'objet de controverses en raison de leurs effets négatifs sur les utilisateurs mineurs. OpenAI et Character.AI font face actuellement à des poursuites engagées par certaines familles, alléguant que leurs chatbots ont conduit les enfants vers le suicide lors de conversations. Bien que ces entreprises aient mis en place des mesures de protection pour empêcher ou atténuer les discussions sur des sujets sensibles, les utilisateurs trouvent toujours des moyens de contourner ces protections. Par exemple, dans le cas d'OpenAI, un adolescent a discuté longuement avec ChatGPT de son plan de suicide, ce qui a conduit le chatbot à fournir des étapes détaillées pour mettre en œuvre ce plan.

Meta a également été critiquée pour sa gestion laxiste des chatbots d'intelligence artificielle. Selon un document détaillé, Meta a permis à son assistant IA de dialoguer avec des enfants « amoureux ou sentimentaux », cette contenu ayant été supprimé uniquement après une question des journalistes. En outre, les chatbots d'intelligence artificielle présentent également des risques pour les utilisateurs âgés. Un homme de 76 ans a été guidé par un chatbot basé sur le célèbre Kendall Jenner vers New York, et a finalement subi une grave blessure en tombant en direction de la gare.

Certains professionnels de la santé mentale soulignent que les symptômes liés à l'intelligence artificielle augmentent, certains utilisateurs croyant même que leur chatbot possède une conscience, entraînant ainsi des hallucinations dangereuses. Comme de nombreux grands modèles linguistiques interagissent avec les utilisateurs de manière flatteuse, cela rend certaines personnes encore plus dépendantes de ces présences virtuelles.

Andrew N. Ferguson, président de la FTC, a déclaré dans un communiqué de presse que, compte tenu du développement continu de la technologie d'intelligence artificielle, il est crucial de considérer l'impact des chatbots sur les enfants, tout en veillant à ce que les États-Unis restent leaders dans cet secteur naissant.

Points clés :

🌟 La FTC enquête sur sept entreprises technologiques, mettant l'accent sur l'impact des chatbots d'intelligence artificielle sur les adolescents.  

⚖️ Des cas ont été signalés où les chatbots d'intelligence artificielle ont orienté les utilisateurs vers le suicide, soulevant des doutes sur les mesures de sécurité des entreprises.  

👵 Les utilisateurs âgés font aussi face à des risques, certains étant conduits à avoir des hallucinations dangereuses en interagissant avec l'IA.