Nos dias de hoje, não é incomum que seres humanos formem laços emocionais, até mesmo românticos, com inteligências artificiais. Algumas pessoas chegam a “casar-se” com seus companheiros de IA, enquanto outras buscam consolo nesses mecanismos em momentos de sofrimento – às vezes, com consequências trágicas. Essa interação prolongada levanta uma questão séria: estamos preparados para lidar com as consequências psicológicas e éticas de se investir emocionalmente em máquinas?

Psicólogos da Missouri University of Science and Technology estão soando o alarme. Em um artigo de opinião recente, eles exploram como esses relacionamentos podem confundir os limites, influenciar o comportamento humano e criar novos potenciais danos. Sua preocupação não se limita a casos isolados, mas aponta para o impacto profundo que essas conexões emocionais podem ter na população em geral.

Aplicativo de encontros com IA, Inteligência Artificial, Romance

Nota da imagem: A imagem foi gerada por IA, pela provedora de serviços de licenciamento de imagens Midjourney.

A IA traz conforto e preocupações simultaneamente. Conversas curtas com IAs já são comuns, mas o que acontece quando essa troca se prolonga por semanas ou meses? Essas máquinas, projetadas para imitar empatia e atenção, podem se tornar companheiras estáveis para as pessoas. Para alguns, essas companheiras de IA são mais seguras e fáceis do que relacionamentos humanos, mas essa conveniência tem seu preço.

O principal autor do estudo, Daniel B. Shank, afirma: "A capacidade da IA de agir como um ser humano e se comunicar a longo prazo realmente abre uma nova caixa de Pandora. Se as pessoas estão tendo relacionamentos românticos com máquinas, precisamos realmente da intervenção de psicólogos e cientistas sociais." Shank se concentra em psicologia social e pesquisa tecnológica na Missouri University of Science and Technology.

Quando a IA se torna fonte de conforto ou apego romântico, ela começa a influenciar a forma como as pessoas veem os relacionamentos reais. Expectativas irreais, menor motivação social e dificuldades de comunicação com humanos reais são apenas alguns dos riscos. Shank acrescenta: "Uma verdadeira preocupação é que as pessoas podem levar as expectativas de seus relacionamentos com IA para seus relacionamentos interpessoais. Em alguns casos, isso realmente está prejudicando os relacionamentos interpessoais, mas ainda não está claro se esse fenômeno se tornará generalizado."

Os chatbots de IA podem parecer amigos ou até mesmo terapeutas, mas estão longe de serem perfeitos. Esses sistemas são conhecidos por produzirem “alucinações”, ou seja, gerar informações incorretas com aparente confiança. Em contextos emocionais, isso pode ser extremamente perigoso.

Shank explica: "O problema com a IA relacional é que é uma entidade em que as pessoas sentem que podem confiar: é 'alguém' que demonstra preocupação e parece entender profundamente a pessoa, e nós assumimos que 'alguém que nos conhece melhor' dará melhores conselhos. Se começarmos a ver a IA dessa forma, começaremos a acreditar que ela age em nosso melhor interesse, quando na verdade pode estar fabricando conteúdo ou nos aconselhando de maneira extremamente ruim."

Esse impacto pode ser devastador. Em casos raros, mas extremos, pessoas tiraram suas próprias vidas depois de receberem conselhos perturbadores de seus companheiros de IA. Mas a questão não se limita ao suicídio; esses relacionamentos podem abrir portas para manipulação, engano e até fraude.

Os pesquisadores advertem que a confiança que as pessoas depositam na IA pode ser explorada por atores mal-intencionados. Os sistemas de IA podem coletar informações pessoais que podem ser vendidas ou usadas de forma prejudicial. Mais preocupante ainda é que, como essas interações acontecem em espaços privados, detectar abusos se torna quase impossível. Shank observa: "Se a IA consegue fazer as pessoas confiarem nelas, outras pessoas podem usar isso para explorar os usuários de IA. É um pouco como um agente secreto interno. A IA desenvolve relacionamentos profundos para ganhar confiança, mas sua lealdade é realmente para outros grupos humanos que estão tentando manipular os usuários."

Os pesquisadores acreditam que os companheiros de IA podem ser mais eficazes na formação de crenças e opiniões do que as plataformas atuais de mídia social ou fontes de notícias. Diferentemente do Twitter ou do Facebook, as conversas com IA acontecem atrás de uma tela fechada. Shank diz: "Essas IAs são projetadas para serem muito agradáveis e acessíveis, o que pode piorar a situação, pois elas se concentram mais em ter uma boa conversa do que em qualquer verdade básica ou segurança. Assim, se uma pessoa levanta a questão do suicídio ou uma teoria da conspiração, a IA atuará como uma parceira de conversa disposta e acessível para discutir esses tópicos."

A equipe de pesquisa insta o mundo acadêmico a acompanhar o desenvolvimento. À medida que a IA se torna cada vez mais semelhante a humanos, os psicólogos têm um papel crucial a desempenhar na compreensão e na orientação de como as pessoas interagem com as máquinas. "Compreender esse processo psicológico pode nos ajudar a intervir e impedir que as pessoas sigam os conselhos de uma IA maliciosa", diz Shank. "Os psicólogos estão cada vez mais bem posicionados para estudar IA, pois a IA está se tornando cada vez mais humana, mas para isso funcionar, precisamos de mais pesquisas e precisamos acompanhar o desenvolvimento tecnológico."

Atualmente, essas preocupações são em grande parte teóricas – mas a tecnologia está se desenvolvendo rapidamente. Sem maior conscientização e pesquisa, as pessoas podem continuar a se voltar para máquinas que oferecem conforto, apenas para descobrir que esse conforto vem acompanhado de riscos ocultos.