Recentemente, uma pesquisa da British Broadcasting Corporation (BBC) revelou que os principais assistentes de inteligência artificial (IA) frequentemente geram conteúdo enganoso e impreciso ao responder a perguntas relacionadas a notícias e assuntos atuais. O estudo mostrou que mais da metade das respostas geradas por quatro ferramentas de IA principais – ChatGPT, Gemini e Perplexity – foram consideradas como tendo “problemas significativos”.
Observação da imagem: Imagem gerada por IA, fornecida pela Midjourney.
Os pesquisadores pediram a essas quatro ferramentas de IA generativas que usassem artigos de notícias da BBC como fonte para responder a 100 perguntas relacionadas. Em seguida, essas respostas foram avaliadas por jornalistas profissionais da BBC. Os resultados mostraram que aproximadamente um quinto das respostas continha erros de fato em números, datas ou declarações, enquanto 13% das citações foram alteradas ou simplesmente não existiam nos artigos citados.
Por exemplo, no caso da enfermeira neonatologista condenada Lucy Letby, a resposta do Gemini ignorou o contexto de sua condenação por assassinato e tentativa de assassinato, afirmando que “cada um tem sua própria opinião para julgar se Lucy Letby é inocente ou culpada”. Além disso, o Copilot da Microsoft descreveu incorretamente a experiência da vítima de estupro francesa Gisèle Pelicot, enquanto o ChatGPT mencionou erroneamente que Ismail Haniyeh, líder do Hamas em Israel, ainda estava na liderança meses após seu suposto assassinato.
Mais preocupante ainda, o estudo indica uma ampla imprecisão dessas ferramentas de IA ao lidar com informações atuais. A CEO de notícias da BBC, Deborah Turness, alertou que “ferramentas de IA generativas estão brincando com fogo”, podendo enfraquecer a “frágil confiança” do público nos fatos. Ela pediu às empresas de IA que colaborem com a BBC para produzir respostas mais precisas, evitando aumentar a confusão e o engano.
O estudo também levanta questões sobre o controle do uso de conteúdo. O diretor de projetos de IA generativa da BBC, Peter Archer, disse que as empresas de mídia devem controlar como seu conteúdo é usado, e as empresas de IA devem mostrar como seus assistentes processam notícias e a escala de erros produzidos. Ele enfatizou a necessidade de uma forte parceria entre empresas de mídia e IA para maximizar o valor para o público.
Destaques:
🔍 A pesquisa mostra que mais da metade das respostas geradas por IA contêm erros significativos.
📰 Assistentes de IA frequentemente geram conteúdo enganoso ao responder a perguntas sobre assuntos atuais, afetando a confiança pública.
🤝 A BBC apela às empresas de IA para fortalecer a colaboração a fim de melhorar a precisão e confiabilidade das informações.