A Amazon tem enfrentado um problema crescente com livros falsos gerados por IA no seu site, destacando-se especialmente uma série de receitas e guias de saúde falsos publicados sob o nome do médico famoso Eric Topol. Esses livros não apenas têm conteúdo mal elaborado, mas também roubam o nome e a imagem de Topol, constituindo claramente um caso de fraude. Topol disse que, apesar de reportar repetidamente esses livros piratas à Amazon, o problema nunca foi resolvido, e o atendimento ao cliente só ofereceu respostas genéricas.

Essa proliferação de livros falsos em larga escala não é um caso isolado. A Sky News descobriu que, após grandes eventos esportivos, surgem muitos biografias de atletas geradas por IA, com conteúdo simples e capas falsas. Esses autores supostos geralmente não têm identidade online real, mas conseguem lançar dezenas de livros de uma vez, ocupando espaço no mercado de livros reais.
A Associação de Editores (Publishers Association) expressou preocupação e pediu mais clareza na marcação de conteúdo gerado por IA. O CEO da associação, Dan Conway, alertou que, em um ambiente saturado de informações, os leitores quase não conseguem distinguir entre livros verdadeiros bem pesquisados e livros falsos criados por IA.
A Amazon respondeu dizendo que a empresa já está aplicando normas de conteúdo através de revisão automática e manual, e removerá livros que violem as regras. Para lidar com os desafios trazidos pela IA, a Amazon ajustou algumas regras, como limitar a quantidade de novos livros publicados diariamente pelos autores independentes a três, e exigir que os autores declarem se usaram IA. No entanto, essas informações de divulgação não são divulgadas aos consumidores, resultando em uma falta de transparência.
Embora a Amazon esteja atualizando suas medidas de segurança, o caso de Topol demonstra que livros falsos gerados por IA continuam surgindo constantemente, prejudicando continuamente a reputação de especialistas e escritores. Por trás disso está a combinação de ferramentas como o ChatGPT e o modelo de autosserviço fácil de publicação, permitindo que estelionatários utilizem facilmente a IA para imitar o estilo e a marca de pessoas conhecidas, realizando atividades de publicação fraudulenta em grande escala.