Según una encuesta reciente, el 62% de los responsables de ciberseguridad afirman que sus empleados han sido víctimas de ataques que utilizan inteligencia artificial (IA) en el último año. Estos ataques incluyen inyección de prompts y contenido falso de audio o video. La encuesta revela que los ataques de voz falsa mediante deepfake son el tipo más común, con el 44% de las empresas reportando al menos un incidente de este tipo, y el 6% de estos incidentes causaron interrupciones en el negocio, pérdidas financieras o pérdida de propiedad intelectual.

Ciberseguridad, privacidad

Nota de la fuente de la imagen: la imagen fue generada por IA, la plataforma de licencias es Midjourney

En caso de utilizar servicios de verificación de audio, la proporción de pérdidas disminuye al 2%. En cuanto a los deepfakes de video, el porcentaje es ligeramente menor, con el 36% de las empresas afectadas, pero el 5% de estos incidentes también causó problemas graves.

Chester Wisniewski, director mundial de seguridad de la información de la empresa de seguridad Sophos, señaló que la tecnología de deepfake de voz ya es muy madura y de bajo costo. Comentó: "La falsificación de voz ahora puede generarse en tiempo real. Si fuera la voz de su pareja, podrían darse cuenta, pero si fuera la de un compañero con quien se comunica ocasionalmente, casi podría falsificarse en tiempo real sin dificultad, lo cual representa un gran desafío."

Él cree que los números reportados sobre los ataques de voz falsa mediante deepfake pueden estar subestimados, pero la proporción de falsificaciones de video es mayor de lo esperado. Señaló que la falsificación en tiempo real de videos de individuos específicos es muy cara, posiblemente requiriendo millones de dólares. Sin embargo, Sophos ya ha visto casos en los que estafadores mostraron brevemente un deepfake de video del CEO o CFO en llamadas de WhatsApp, luego afirmaron que había un problema con la conexión y eliminaron el video para pasar a comunicaciones por texto y realizar ataques de ingeniería social.

Otros casos más comunes involucran el uso de videos falsos para ocultar la identidad de alguien. Por ejemplo, Corea del Norte utiliza tecnologías de falsificación de IA para ofrecer servicios a empresas occidentales y ganar millones de dólares; estas técnicas de falsificación son bastante engañosas incluso para profesionales.

Además, otro tipo de ataque generado por IA que está en aumento es la inyección de prompts, en donde los atacantes insertan instrucciones maliciosas en el contenido procesado por los sistemas de IA, induciéndolos a revelar información sensible o abusar de herramientas conectadas. Esto podría provocar ejecución de código, especialmente cuando hay integración. Según una encuesta de Gartner, el 32% de los encuestados indicó que sus aplicaciones sufrieron ataques de inyección de prompts.

Claves destacadas:

📞 El 62% de las empresas sufrió ataques de IA, de los cuales el 44% informó incidentes de llamadas telefónicas con voz falsa mediante deepfake.  

💻 La tecnología de falsificación de voz en tiempo real es madura, planteando nuevos desafíos para la seguridad de los empleados.  

🔍 Los ataques de inyección de prompts son frecuentes, afectando el 32% de las aplicaciones empresariales.