Según informes de medios, OpenAI podría enfrentar multas que alcanzarían los mil millones de dólares. Los autores y editores que presentaron una demanda contra la empresa descubrieron mensajes internos y correos electrónicos relacionados con la eliminación de conjuntos de datos que incluían libros piratas. Los demandantes desean obtener los registros de comunicación entre OpenAI y sus abogados, considerando que estos podrían probar actos intencionales por parte de la empresa.

OpenAI

Nota de la fuente de la imagen: La imagen fue generada por IA, el proveedor de licencias es Midjourney

Según la ley estadounidense, las multas por cada obra infractora pueden alcanzar los 150.000 dólares. El tribunal de Nueva York aún está considerando si OpenAI renunció al privilegio abogado-cliente debido a sus declaraciones. Además, los demandantes también acusaron que la evidencia fue destruida intencionalmente. Estas acusaciones y las multas potenciales recuerdan al acuerdo de 1.500 millones de dólares alcanzado en agosto de este año por otra empresa de inteligencia artificial, Anthropic, por el uso similar de libros piratas. Esto podría ser uno de los motivos por los que tanto OpenAI como Anthropic tuvieron dificultades para obtener seguros.

Bajo este contexto, el futuro de OpenAI se encuentra lleno de incertidumbre. Con el rápido desarrollo tecnológico, los desafíos legales relacionados con el uso de datos y derechos de autor para las empresas de inteligencia artificial serán cada vez más frecuentes. Este juicio no solo afectará la situación financiera de OpenAI, sino que también influirá en la conformidad y la dirección futura de toda la industria.

Destacado:

📚 OpenAI podría enfrentar multas que alcanzarían los mil millones de dólares, por supuestamente usar libros piratas para entrenar la IA.  

⚖️ Los demandantes desean obtener los registros de comunicación entre OpenAI y sus abogados, para probar posibles actos intencionales de la empresa.  

💰 En agosto de este año, Anthropic alcanzó un acuerdo de 1.500 millones de dólares por un caso similar, lo cual afectó la situación de seguros de las empresas de inteligencia artificial.