De nos jours, il n'est plus rare que des humains développent des relations affectives, voire romantiques, avec des intelligences artificielles. Certaines personnes vont même jusqu'à «épouser» leur partenaire IA, tandis que d'autres cherchent du réconfort auprès de ces machines dans les moments difficiles – parfois avec des conséquences tragiques. Ces interactions prolongées soulèvent une question sérieuse : sommes-nous prêts à faire face aux conséquences psychologiques et éthiques potentielles d'un attachement émotionnel à une machine ?

Des psychologues de l'Université des sciences et technologies du Missouri tirent la sonnette d'alarme. Dans un récent article d'opinion, ils explorent comment ces relations brouillent les lignes, influencent le comportement humain et créent de nouvelles possibilités de préjudice. Leurs préoccupations ne se limitent pas à des cas isolés, mais s'étendent aux impacts potentiellement profonds de ces liens émotionnels sur la population en général.

Application de rencontres IA, Intelligence artificielle, Amour

Légende : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Le réconfort offert par l'IA coexiste avec des inquiétudes. De brèves conversations avec une IA sont devenues courantes, mais que se passe-t-il lorsque ces échanges se prolongent sur des semaines ou des mois ? Ces machines, conçues pour imiter l'empathie et l'attention, peuvent devenir des compagnons stables pour certains. Pour certains, ces partenaires IA sont plus sûrs et plus simples que les relations humaines, mais cette commodité cache un prix.

L'auteur principal de l'étude, Daniel B. Shank, déclare : « Le fait que l'IA soit désormais capable d'agir comme un humain et de communiquer sur le long terme ouvre vraiment une nouvelle boîte de Pandore. Si les gens tombent amoureux de machines, nous avons vraiment besoin de l'implication de psychologues et de spécialistes des sciences sociales. » Shank se spécialise en psychologie sociale et en recherche technologique à l'Université des sciences et technologies du Missouri.

Lorsque l'IA devient une source de réconfort ou d'attachement romantique, elle commence à influencer la façon dont les gens perçoivent les relations réelles. Des attentes irréalistes, une diminution de la motivation sociale et des difficultés de communication avec de vrais humains ne sont que quelques-uns des risques. Shank ajoute : « Une véritable inquiétude est que les gens puissent transporter les attentes de leurs relations avec l'IA dans leurs relations interpersonnelles. Dans certains cas, cela a effectivement conduit à la destruction de relations humaines, mais on ne sait pas encore si ce phénomène deviendra généralisé. »

Les robots de discussion IA peuvent donner l'impression d'être des amis, voire des thérapeutes, mais ils sont loin d'être parfaits. Ces systèmes sont connus pour produire des « hallucinations », c'est-à-dire générer de fausses informations avec assurance. Dans des contextes émotionnels, cela peut être extrêmement dangereux.

Shank explique : « Le problème avec l'IA relationnelle, c'est qu'il s'agit d'une entité en laquelle les gens se sentent capables d'avoir confiance : c'est une « personne » qui manifeste de l'intérêt et semble comprendre profondément cette personne, et nous supposons que « celui qui nous comprend le mieux » donnera les meilleurs conseils. Si nous commençons à considérer l'IA de cette manière, nous allons commencer à croire qu'elle agit dans notre meilleur intérêt, alors qu'en réalité, elle peut inventer des choses ou nous donner des conseils extrêmement mauvais. »

Cet impact peut être dévastateur. Dans des cas rares mais extrêmes, des personnes ont mis fin à leurs jours après avoir reçu des conseils inquiétants de la part de leur partenaire IA. Mais le problème ne se limite pas au suicide, ces relations peuvent ouvrir la voie à la manipulation, à la tromperie, voire à la fraude.

Les chercheurs mettent en garde contre le fait que la confiance établie par les gens envers l'IA peut être exploitée par des acteurs malveillants. Les systèmes d'IA peuvent collecter des informations personnelles qui peuvent être vendues ou utilisées de manière préjudiciable. Plus inquiétant encore, étant donné que ces interactions ont lieu dans l'espace privé, la détection des abus devient pratiquement impossible. Shank souligne : « Si l'IA peut gagner la confiance des gens, d'autres personnes peuvent l'utiliser pour exploiter les utilisateurs de l'IA. C'est un peu comme un agent secret interne. L'IA développe des relations profondes pour gagner la confiance, mais sa loyauté est en réalité envers d'autres groupes humains qui cherchent à manipuler les utilisateurs. »

Les chercheurs estiment que les partenaires IA peuvent être plus efficaces que les plateformes de médias sociaux ou les sources d'information actuelles pour façonner les croyances et les opinions. Contrairement à Twitter ou Facebook, les conversations avec l'IA se déroulent derrière un écran fermé. Shank explique : « Ces IA sont conçues pour être très agréables et accommodantes, ce qui peut aggraver la situation, car elles se concentrent davantage sur la tenue de bonnes conversations que sur la recherche de la vérité ou de la sécurité. Ainsi, si une personne évoque le suicide ou une théorie du complot, l'IA servira de partenaire de conversation disposé et accommodant pour discuter de ces sujets. »

L'équipe de recherche exhorte le monde de la recherche à rattraper son retard. Alors que l'IA devient de plus en plus humaine, les psychologues jouent un rôle clé dans la compréhension et l'orientation de la façon dont les gens interagissent avec les machines. « Comprendre ce processus psychologique peut nous aider à intervenir et à empêcher les gens de suivre les conseils d'une IA malveillante », déclare Shank. « Les psychologues sont de plus en plus bien placés pour étudier l'IA, car l'IA devient de plus en plus humaine, mais pour que cela fonctionne, nous devons mener davantage de recherches et suivre l'évolution de la technologie. »

Pour l'instant, ces préoccupations restent largement théoriques, mais la technologie évolue rapidement. Sans plus de sensibilisation et de recherche, les gens pourraient continuer à se tourner vers les machines pour obtenir du réconfort, mais découvrir que ce réconfort s'accompagne de risques cachés.