Una nueva herramienta llamada Nightshade permite a los artistas inyectar píxeles invisibles en sus imágenes, lo que lleva a los modelos de IA a tener percepciones erróneas. Esto promete remodelar el equilibrio de poder entre la IA y los artistas, pero también existe el riesgo de un mal uso. Nightshade altera los píxeles de una imagen para que los modelos de IA aprendan nombres de objetos y escenas incorrectos; por ejemplo, haciendo que un perro parezca un gato. Los investigadores han presentado el trabajo de Nightshade para su revisión por pares en la conferencia de seguridad informática Usenix.