Una nueva herramienta llamada Nightshade permite a los artistas inyectar píxeles invisibles en sus imágenes, lo que lleva a los modelos de IA a tener percepciones erróneas. Esto promete remodelar el equilibrio de poder entre la IA y los artistas, pero también existe el riesgo de un mal uso. Nightshade altera los píxeles de una imagen para que los modelos de IA aprendan nombres de objetos y escenas incorrectos; por ejemplo, haciendo que un perro parezca un gato. Los investigadores han presentado el trabajo de Nightshade para su revisión por pares en la conferencia de seguridad informática Usenix.
Nightshade: Una nueva herramienta para proteger el arte de los artistas contra la infracción de la IA

站长之家
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.