Según un informe reciente de Gartner, la aplicación de la inteligencia artificial (IA) en los ciberataques se ha convertido en el mayor riesgo para las empresas durante tres trimestres consecutivos.

La consultora encuestó a 286 altos ejecutivos de riesgo y auditoría entre julio y septiembre, y los resultados mostraron que el 80% de los encuestados expresaron una profunda preocupación por los ataques maliciosos potenciados por IA. Esta tendencia no es sorprendente, ya que hay evidencia de que los ciberataques que utilizan IA están aumentando.

Hacker, ciberataque, escribiendo código

Nota de la imagen: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

El informe también destaca otros riesgos emergentes, incluyendo la desinformación asistida por IA, la creciente polarización política y la falta de coincidencia en la asignación de talento en las organizaciones. Los atacantes están utilizando la IA para escribir malware, crear correos electrónicos de phishing, etc. Por ejemplo, en HP, los investigadores interceptaron en junio una campaña de correo electrónico que propagaba malware, cuyo script se sospecha que fue escrito con la ayuda de una IA generativa. La estructura del script era clara, con comentarios para cada comando, algo poco común en la escritura manual.

Según datos de la empresa de seguridad Vipre, en el segundo trimestre de 2023, el número de ataques de fraude por correo electrónico empresarial aumentó un 20% en comparación con el mismo período del año anterior, y casi la mitad de ellos fueron generados por IA. Los CEO, RRHH y el personal de TI fueron los principales objetivos. Usman Choudhary, director de producto y tecnología de Vipre, afirma que los delincuentes están utilizando algoritmos de IA complejos para crear correos electrónicos de phishing convincentes que imitan el tono y el estilo de las comunicaciones legítimas.

Además, según un informe de Imperva Threat Research, entre abril y septiembre, los sitios web de comercio electrónico sufrieron un promedio de 569.884 ataques impulsados por IA al día. Los investigadores señalan que herramientas como ChatGPT, Claude y Gemini, así como bots especializados en extraer datos de sitios web para entrenar modelos de lenguaje grandes, se están utilizando para realizar actividades como ataques de denegación de servicio distribuidos y abuso de la lógica empresarial.

Cada vez más hackers éticos también admiten el uso de IA generativa, con un aumento del 64% al 77% desde el año pasado. Estos investigadores afirman que la IA puede ayudar en ataques multicanal, ataques de inyección de fallos y ataques automatizados, atacando simultáneamente múltiples dispositivos. Así, si los "buenos" encuentran la IA útil, los "malos" también aprovecharán esta tecnología.

El auge de la IA no es sorprendente, ya que reduce el umbral de entrada para la ciberdelincuencia, permitiendo que incluso los delincuentes con poca experiencia técnica puedan utilizar la IA para generar deepfakes, escanear puertos de red, realizar reconocimiento, etc. Investigadores de la Escuela Politécnica Federal de Zúrich desarrollaron recientemente un modelo capaz de resolver el 100% de los problemas de Google reCAPTCHA v2. Analistas de la empresa de seguridad Radware predijeron a principios de año que la aparición de modelos GPT privados se utilizaría con fines maliciosos, aumentando el número de vulnerabilidades de día cero y estafas con deepfakes.

Gartner también señala que los problemas relacionados con los proveedores de TI clave han entrado por primera vez en la lista de preocupaciones de los ejecutivos. Zachary Ginsburg, director senior de práctica de riesgo y auditoría de Gartner, afirma que los clientes que dependen en exceso de un único proveedor pueden enfrentarse a un mayor riesgo. Como ocurrió con el incidente de dStrike en julio, que paralizó 8,5 millones de dispositivos Windows en todo el mundo, afectando gravemente a servicios de emergencia, aeropuertos y organismos de aplicación de la ley.