Recentemente, um juiz da Califórnia expressou forte insatisfação com o comportamento de duas firmas de advocacia por terem utilizado materiais de pesquisa gerados por inteligência artificial sem divulgá-lo em um documento legal suplementar. O juiz Michael Werner impôs uma multa de US$ 31.000 às firmas na semana passada, alegando que o documento continha uma grande quantidade de referências e citações legais falsas, imprecisas e enganosas.
Nota da fonte de imagem: A imagem foi gerada por IA, autorizada pelo provedor Midjourney.
No documento de sentença, o juiz Werner mencionou que, ao ler o documento legal, ele se interessou pelas referências a casos jurídicos mencionados, mas descobriu que esses casos simplesmente não existiam. Ele destacou que essa situação era assustadora e quase o levou a citar esses materiais falsos em um decreto judicial. Ele enfatizou que "nenhum advogado razoavelmente qualificado deveria terceirizar a pesquisa e a redação para inteligência artificial."
De acordo com os documentos do tribunal, em um processo cível contra a State Farm, o representante jurídico de uma das partes utilizou um esquema de documento suplementar gerado por IA. No entanto, ao enviar este esquema para outra firma de advocacia, a K&L Gates, os materiais de pesquisa contidos nele eram falsos. O juiz Werner apontou que os advogados ou funcionários dessas firmas claramente não revisaram ou verificaram esses materiais antes de apresentar o documento.
Durante a análise do documento, o juiz Werner descobriu que pelo menos duas referências de casos mencionados não existiam. Após questionar a K&L Gates, o documento reenviado continha mais citações fictícias. Em seguida, o juiz solicitou aos advogados que explicassem a situação, culminando na confissão de que ferramentas de inteligência artificial, como Google Gemini e o recurso de pesquisa jurídica CoCounsel no Westlaw Precision, foram usadas.
Este não é o primeiro caso envolvendo advogados citando casos fictícios em tribunais. Por exemplo, o ex-advogado de Trump, Michael Cohen, já foi pego por mal-entendido com o Google Gemini ao citar casos judiciais inexistentes em um documento legal. Além disso, houve um caso em que um advogado incluiu várias citações falsas geradas pelo ChatGPT em um processo contra a Columbia Airlines.
No julgamento, o juiz Werner reiterou que é "absolutamente incorreto" não divulgar previamente rascunhos de documentos gerados por produtos de inteligência artificial, e que enviar esses materiais a outros advogados sem informar sua suspeita origem de IA coloca esses profissionais em risco.
Principais pontos:
🔍 O juiz impôs uma multa de US$ 31.000 às firmas de advocacia por usar materiais falsos gerados por IA.
⚖️ Foram encontradas múltiplas referências legais fictícias no documento, distorcendo as citações legais.
🤖 Os advogados admitiram o uso de ferramentas de IA para pesquisa jurídica sem realizar a necessária revisão.