Adobe, un nombre prestigioso en la industria creativa, conocido como "guardián de los derechos de autor" por su postura en la protección de los mismos, se ha visto envuelto en una controversia debido a una actualización silenciosa de sus términos de servicio.
En febrero de este año, Adobe actualizó discretamente los términos de servicio de sus productos, añadiendo una cláusula llamativa: los usuarios deben aceptar que Adobe pueda acceder a sus obras, incluidas las protegidas por acuerdos de confidencialidad, de forma automática y manual. Adobe utilizará estas obras para mejorar sus servicios y software mediante técnicas como el aprendizaje automático. Si los usuarios no aceptan estas nuevas condiciones, no podrán utilizar el software de Adobe.
Este cambio, recientemente expuesto, ha provocado una fuerte oposición de los usuarios principales de Adobe, como creativos, artistas digitales y diseñadores. Consideran que se trata de una licencia forzosa, esencialmente una "cláusula abusiva", cuyo objetivo real es entrenar el modelo de IA generativa de Adobe, "Firefly". Un bloguero llamado Sam Santala cuestionó esta cláusula en Twitter, y su publicación ha alcanzado millones de visualizaciones.
Muchos usuarios han expresado su preocupación por su privacidad y derechos de autor, optando por dejar de usar los productos de Adobe. Simultáneamente, Meta ha tomado medidas similares, actualizando su política de privacidad para permitir el uso de la información compartida por los usuarios en los productos y servicios de Meta para entrenar su IA. Si los usuarios no están de acuerdo con la nueva política de privacidad, deberían considerar dejar de usar plataformas de redes sociales como Facebook e Instagram.
Con el rápido desarrollo de la tecnología de IA, la lucha entre las empresas tecnológicas y los usuarios sobre la privacidad de los datos, la propiedad y el control del contenido se está intensificando. Adobe afirma que los datos de entrenamiento de su modelo Firefly provienen de cientos de millones de imágenes de la biblioteca de imágenes de Adobe, algunas imágenes con licencia abierta e imágenes de dominio público cuyas protecciones de derechos de autor han expirado. Sin embargo, otras herramientas de generación de imágenes de IA, como Stable Diffusion de Stability AI, Dall-E2 de OpenAI y Midjourney, han sido objeto de controversia por problemas de derechos de autor.
Adobe intenta diferenciarse en este ámbito, posicionándose como un "caballero blanco" en la carrera armamentística de la IA, enfatizando la legalidad de los datos de entrenamiento de su modelo y comprometiéndose a pagar las indemnizaciones por disputas de derechos de autor derivadas del uso de imágenes generadas con Adobe Firefly. Pero esta estrategia no ha calmado todas las preocupaciones de los usuarios. Algunos usuarios, como el diseñador veterano Aj, se autodenominan "víctimas de la versión original de Adobe", argumentando que Adobe utiliza su vasto ecosistema creativo para entrenar la IA, una estrategia comercial inteligente, pero que carece de una distribución justa de beneficios entre la plataforma y los creadores, y de transparencia para el usuario.
Además, se han producido repetidas disputas de derechos de autor relacionadas con Adobe en el extranjero, lo que ha generado dudas entre los usuarios sobre si Adobe realmente respeta los derechos de autor de los creadores. Por ejemplo, el artista Brian Kesinger descubrió que, sin su consentimiento, la biblioteca de imágenes de Adobe contenía imágenes generadas por IA con un estilo similar al suyo que se vendían bajo su nombre. La administración del legado del fotógrafo Ansel Adams también ha acusado públicamente a Adobe de vender imitaciones de inteligencia artificial generativa de las obras del fotógrafo fallecido.
Ante la presión de la opinión pública, Adobe revisó sus términos de servicio el 19 de junio, aclarando que no utilizará el contenido almacenado localmente o en la nube de los usuarios para entrenar modelos de IA. Pero esta aclaración no ha disipado completamente las preocupaciones de los creadores. Algunos blogueros conocidos del sector de la IA en el extranjero señalan que la versión revisada de los términos de servicio de Adobe aún permite el uso de datos de la nube privada de los usuarios para entrenar modelos de aprendizaje automático de herramientas de IA no generativas. Aunque los usuarios pueden optar por no participar en el "análisis de contenido", el complejo proceso de cancelación disuade a muchos usuarios.
Las diferentes regulaciones sobre la protección de datos de los usuarios en los distintos países y regiones también influyen en las estrategias de las plataformas de redes sociales al establecer sus términos de servicio. Por ejemplo, en el marco del Reglamento General de Protección de Datos (RGPD), los usuarios del Reino Unido y la UE tienen derecho de oposición, pudiendo optar explícitamente por no utilizar sus datos personales para entrenar los modelos de inteligencia artificial de Meta. Sin embargo, los usuarios estadounidenses no tienen el mismo derecho a la información; según la política de intercambio de datos actual de Meta, el contenido publicado por los usuarios estadounidenses en los productos de redes sociales de Meta puede haberse utilizado para entrenar la IA sin su consentimiento explícito.
Los datos se consideran el "nuevo petróleo" de la era de la IA, pero la "extracción" de recursos aún presenta muchas áreas grises. Algunas empresas tecnológicas han adoptado prácticas ambiguas en la obtención de datos de los usuarios, lo que ha provocado una doble dificultad para los derechos de la información personal de los usuarios: la propiedad de los derechos de autor digitales y los problemas de privacidad de los datos, perjudicando gravemente la confianza de los usuarios en la plataforma.
Actualmente, las plataformas presentan importantes deficiencias en la garantía de que la IA generativa no infringe los derechos de los creadores y carecen de una supervisión adecuada. Algunos desarrolladores y creadores han tomado medidas y han lanzado una serie de herramientas "anti-IA", desde la herramienta de protección de obras Glaze hasta la herramienta de envenenamiento de datos de IA Nightshade, pasando por la popular comunidad anti-IA Cara. Ante la captura de datos por parte de las empresas tecnológicas para entrenar modelos de IA sin el consentimiento de los usuarios/creadores, la indignación de la gente va en aumento.
En la actualidad, en que la tecnología de IA se desarrolla rápidamente, queda por ver cómo se equilibra la innovación tecnológica con la seguridad y la privacidad de los usuarios, y cómo se garantizan los derechos de los creadores, a través del desarrollo del sector y de la mejora continua de las medidas de control legal. Al mismo tiempo, los usuarios deben ser más cautelosos, conocer sus derechos de datos y tomar medidas para proteger sus creaciones y su privacidad cuando sea necesario.