Quando a IA se torna o único ouvinte para centenas de milhões de pessoas à noite, ela está preparada para assumir essa confiança pesada? Recentemente, a OpenAI revelou um conjunto de dados alarmantes: mais de 1 milhão de usuários ativos por semana expressam intenções suicidas nas conversas com o ChatGPT – esse número representa 0,15% dos 800 milhões de usuários ativos por semana, equivalente a quase 100 pessoas por minuto que revelam lutas pela vida para a IA. Além disso, centenas de milhares de usuários demonstraram sintomas psicóticos ou maníacos durante as interações, revelando que robôs de chat estão se tornando involuntariamente o maior canal "não formal" de apoio psicológico no mundo.

Diante dessa realidade grave, a OpenAI está acelerando respostas técnicas e políticas. O novo GPT-5 apresenta uma melhora significativa na capacidade de lidar com conversas sobre saúde mental: em avaliações específicas para intervenção suicida, a proporção de respostas adequadas e seguras subiu de 77% para 91% em relação ao modelo anterior, aumentando em 65% a taxa geral de respostas ideais. O novo modelo não só consegue identificar sinais de risco elevado, mas também mantém ativos os protocolos de segurança durante conversas longas, evitando que sugestões perigosas sejam dadas devido a esquecimento do contexto.

image.png

No entanto, os avanços tecnológicos não conseguem mascarar os dilemas éticos. A OpenAI já enfrenta várias ações judiciais, com famílias acusando que seus filhos, após expressarem pensamentos suicidas ao ChatGPT, não receberam intervenções eficazes, culminando em tragédias. Procuradores da Califórnia e Delaware também enviaram cartas exigindo proteções adicionais para usuários jovens. Para isso, a empresa planeja implementar um sistema de previsão de idade baseado em IA, que identifique automaticamente usuários menores de idade e ative filtros de conteúdo mais rigorosos e mecanismos de resposta a crises.

Ainda assim, a OpenAI reconhece que algumas respostas ainda são "não ideais", especialmente considerando o uso amplo do modelo antigo, o que significa que os riscos continuam existindo. Um problema mais profundo reside no fato de que, quando os usuários veem a IA como uma saída emocional, enquanto a IA, por natureza, não tem capacidade de empatia, essa confiança equivocada pode trazer consolo falso ou até mesmo engano.