Recentemente, a Anthropic, uma startup de inteligência artificial de São Francisco, foi processada por um grupo de escritores por usar, sem autorização, uma grande quantidade de livros piratas para treinar seu popular chatbot Claude. Este é o primeiro processo de escritores contra a Anthropic, embora ações semelhantes tenham sido apresentadas contra sua concorrente, OpenAI, repetidamente no último ano. A Anthropic, uma empresa menor fundada por ex-líderes da OpenAI, se descreve como desenvolvedora de modelos de IA generativos mais responsáveis e seguros, capazes de escrever e-mails, resumir documentos e conversar naturalmente com pessoas.

No entanto, o processo, apresentado na segunda-feira em um tribunal federal de São Francisco, acusa a Anthropic de "zombar de seus objetivos elevados" ao usar livros piratas para construir seu produto de IA. A queixa afirma: "Não é exagero dizer que o modelo da Anthropic tenta lucrar com a expressão e criatividade humanas por trás de cada obra."
Os autores do processo são três escritores, Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, que esperam representar um grupo maior de autores de ficção e não-ficção afetados. Embora seja o primeiro processo de escritores contra a Anthropic, a empresa também enfrenta um processo de grandes editoras de música, alegando que o Claude reutilizou letras de músicas protegidas por direitos autorais.
Este caso está relacionado a uma série de outros processos contra desenvolvedores de grandes modelos de linguagem de IA. A OpenAI e a Microsoft estão lutando legalmente contra escritores conhecidos como John Grisham, Jodi Picoult e George R.R. Martin, autor de "A Guerra dos Tronos". Além disso, há processos de meios de comunicação como o New York Times, o Chicago Tribune e a Mother Jones.
O ponto em comum em todos esses casos é que as empresas de tecnologia usaram uma grande quantidade de trabalhos humanos sem autorização para treinar chatbots de IA, gerando texto semelhante ao humano. Os processos não vêm apenas de escritores, mas também de artistas visuais, empresas de música e outros criadores, que afirmam que os lucros da IA generativa são construídos sobre a apropriação de obras originais.
Embora a Anthropic e outras empresas de tecnologia argumentem que o treinamento de modelos de IA se enquadra na doutrina do "uso justo" da lei americana, os processos alegam que o conjunto de dados "The Pile", usado pela empresa, contém muitos livros piratas. A queixa também contesta a ideia de que a forma como os sistemas de IA aprendem é semelhante à dos humanos, enfatizando que os humanos aprendem comprando livros legalmente ou pegando-os emprestados na biblioteca, o que pelo menos fornece alguma compensação financeira aos autores e criadores.
Destaques:
📚 Escritores processam a Anthropic por usar livros piratas para treinar o chatbot de IA Claude.
⚖️ Este é o primeiro processo de escritores contra a Anthropic; processos semelhantes já foram apresentados contra a OpenAI.
💡 A Anthropic e outras empresas argumentam que o treinamento de IA se enquadra no conceito de "uso justo", mas enfrentam uma forte controvérsia sobre direitos autorais.


