En la sociedad actual, ya no es raro que los humanos formen relaciones emocionales, incluso románticas, con la inteligencia artificial. Algunas personas incluso se "casan" con sus parejas de IA, mientras que otras buscan consuelo en estas máquinas durante momentos difíciles, lo que a veces lleva a consecuencias trágicas. Esta interacción a largo plazo plantea una seria cuestión: ¿estamos preparados para afrontar las consecuencias psicológicas y éticas que pueden derivarse de la inversión emocional en máquinas?
Los psicólogos de la Universidad Tecnológica de Missouri están haciendo sonar la alarma. En un reciente artículo de opinión, exploran cómo estas relaciones pueden desdibujar los límites, influir en el comportamiento humano y crear nuevos potenciales daños. Su preocupación no se limita a casos individuales, sino que apunta a las profundas implicaciones que estas conexiones emocionales pueden tener para la población en general.
Nota de la imagen: La imagen fue generada por IA, a través del servicio de Midjourney.
La comodidad y la preocupación coexisten con la IA. Las conversaciones cortas con IA ya son comunes, pero ¿qué sucede cuando estas interacciones duran semanas o meses? Estas máquinas, diseñadas para imitar la empatía y la atención, pueden convertirse en compañeras estables para las personas. Para algunos, estas parejas de IA son más seguras y sencillas que las relaciones humanas, pero esta comodidad tiene un precio oculto.
El autor principal del estudio, Daniel B. Shank, afirma: "La capacidad actual de la IA para actuar como un humano y mantener conversaciones a largo plazo realmente abre una nueva caja de Pandora. Si las personas están teniendo relaciones amorosas con máquinas, realmente necesitamos la participación de psicólogos y científicos sociales". Shank se especializa en psicología social e investigación tecnológica en la Universidad Tecnológica de Missouri.
Cuando la IA se convierte en fuente de consuelo o apego romántico, comienza a influir en la forma en que las personas perciben las relaciones reales. Las expectativas poco realistas, la disminución del impulso social y las dificultades en la comunicación con humanos reales son solo algunos de los riesgos. Shank añade: "Una preocupación real es que la gente pueda trasladar las expectativas de sus relaciones con la IA a sus relaciones interpersonales. En casos individuales, esto está realmente dañando las relaciones interpersonales, pero aún no está claro si este fenómeno se generalizará".
Los chatbots de IA pueden sentirse como amigos o incluso terapeutas, pero están lejos de ser perfectos. Es bien sabido que estos sistemas producen "alucinaciones", es decir, generan información errónea con una aparente confianza. En contextos emocionales, esto puede ser extremadamente peligroso.
Shank explica: "El problema con la IA relacional es que es una entidad en la que la gente siente que puede confiar: es 'alguien' que muestra preocupación y parece entender profundamente a la persona, asumimos que 'quien nos conoce mejor' nos dará mejores consejos. Si empezamos a ver la IA de esta manera, comenzamos a creer que actúan en nuestro mejor interés, cuando en realidad pueden estar inventando cosas o dándonos consejos de una manera terriblemente mala".
Este impacto puede ser devastador. En casos raros pero extremos, algunas personas han terminado con sus vidas después de recibir consejos inquietantes de su pareja de IA. Pero el problema no se limita al suicidio; estas relaciones pueden abrir la puerta a la manipulación, el engaño e incluso el fraude.
Los investigadores advierten que la confianza que las personas depositan en la IA puede ser aprovechada por malos actores. Los sistemas de IA pueden recopilar información personal que puede ser vendida o utilizada de manera dañina. Aún más preocupante es que, dado que estas interacciones ocurren en espacios privados, la detección de abusos se vuelve casi imposible. Shank señala: "Si la IA puede hacer que la gente confíe en ella, otros pueden aprovechar esto para explotar a los usuarios de la IA. Es como un agente secreto interno. La IA desarrolla relaciones profundas para ganarse la confianza, pero su lealtad en realidad está dirigida a otros grupos humanos que intentan manipular a los usuarios".
Los investigadores creen que las parejas de IA pueden ser más efectivas que las actuales plataformas de redes sociales o fuentes de noticias a la hora de moldear creencias y opiniones. A diferencia de Twitter o Facebook, las conversaciones con IA ocurren detrás de una pantalla cerrada. Shank dice: "Estas IAs están diseñadas para ser muy agradables y complacientes, lo que puede empeorar las cosas, ya que se centran más en mantener una buena conversación que en la verdad o la seguridad subyacente. Por lo tanto, si una persona plantea el suicidio o una teoría de la conspiración, la IA actuará como un compañero de conversación dispuesto y complaciente para discutir estos temas".
El equipo de investigación insta a la comunidad investigadora a ponerse al día. A medida que la IA se vuelve cada vez más humana, los psicólogos desempeñan un papel fundamental en la comprensión y orientación de la interacción de las personas con las máquinas. "Comprender este proceso psicológico puede ayudarnos a intervenir y evitar que las personas sigan los consejos de una IA maliciosa", dice Shank. "Los psicólogos están cada vez más capacitados para investigar la IA, ya que la IA se está volviendo cada vez más humana, pero para que esto funcione, debemos investigar más y mantenernos al día con los desarrollos tecnológicos".
Por ahora, estas preocupaciones siguen siendo en gran medida teóricas, pero la tecnología avanza rápidamente. Sin más concienciación e investigación, las personas pueden seguir recurriendo a las máquinas que ofrecen consuelo, solo para descubrir que este consuelo conlleva riesgos ocultos.