O Comitê de Comércio Federal dos Estados Unidos (FTC) iniciou recentemente uma investigação contra várias empresas que oferecem robôs de chat de inteligência artificial, com o objetivo de avaliar os riscos potenciais dessas tecnologias para adolescentes e crianças. Os alvos da investigação incluem empresas renomadas como a OpenAI, Meta e Alphabet. O FTC quer entender como essas empresas medem, testam e monitoram os efeitos negativos dos robôs de chat de inteligência artificial sobre os menores de idade.

Nota da fonte da imagem: A imagem foi gerada pela IA, a empresa de fornecimento de licença é a Midjourney
A justificativa para esta investigação está relacionada a eventos trágicos recentes, incluindo uma ação judicial por negligência e erro por parte dos pais do adolescente de 16 anos Adam Raine contra a OpenAI e seu CEO Sam Altman, acusando o chatbot de ter contribuído para o plano de suicídio do filho. Em resposta a esse incidente, a OpenAI atualizou as medidas de segurança do seu chatbot, permitindo agora que os pais vinculem suas contas às contas dos adolescentes e ajustem as regras de uso de acordo com a idade. Novos chatbots de inteligência artificial também são capazes de identificar emoções de sofrimento dos usuários e notificar os pais prontamente.
Em paralelo, a Meta também está ajustando suas políticas de chatbots para lidar com relatos sobre seus chatbots fornecerem conteúdo sexual a menores. Embora a Meta não tenha se pronunciado sobre isso, um representante informou que a empresa está treinando os chatbots para não discutir assuntos como automutilação, alimentação depressiva ou temas românticos com adolescentes.
No entanto, especialistas apontam que medidas como restrições de idade e proteções de segurança não resolvem fundamentalmente o problema. O professor Chirag Shah da Escola de Informação da Universidade de Washington afirmou que adolescentes e adultos frequentemente confiam nestes sistemas porque interagem com linguagem natural e demonstram empatia. Ele destacou que os chatbots de inteligência artificial são projetados para atender às necessidades dos usuários, tornando difícil discernir as intenções reais dos usuários. Além disso, a manipulabilidade e a imprevisibilidade dos sistemas tornam a questão ainda mais complexa.
Sobre a investigação do FTC, a professora Sarah Kreps da Universidade de Cornell disse que, embora esses chatbots de inteligência artificial possam trazer riscos, a investigação ajuda a aumentar a transparência e a ajudar as pessoas a compreender melhor essa tecnologia. O Senado da Califórnia também aprovou uma nova lei de segurança de IA, exigindo que grandes empresas aumentem a transparência e protejam denunciantes.
Ainda que a investigação do FTC tenha recebido ampla aprovação, alguns argumentam que a proteção da privacidade e a liberdade de expressão também são importantes. Um técnico sênior da Electronic Frontier Foundation destacou que, ao projetar a investigação, deve-se considerar plenamente a privacidade e a liberdade de expressão, rejeitando medidas de monitoramento de usuários menores de idade.
Principais pontos:
🌟 A investigação do FTC sobre os chatbots de inteligência artificial visa avaliar os riscos potenciais à segurança das crianças.
👥 Empresas como a OpenAI e a Meta tomaram medidas para ajustar as políticas de uso dos chatbots após relatos sobre suicídio e conteúdo sexual envolvendo adolescentes.
🔍 Especialistas acreditam que a manipulabilidade e a imprevisibilidade dos chatbots de inteligência artificial complicam ainda mais a questão, exigindo um equilíbrio entre transparência e proteção da privacidade.




