Hace unos días, la empresa de inteligencia artificial Anthropic publicó un informe reciente sobre inteligencia de amenazas en línea, que señala que los hackers, estafadores y organizaciones respaldadas por estados están utilizando cada vez más su chatbot Claude para realizar ataques cibernéticos complejos. El informe detalla cómo estos delincuentes utilizan la tecnología de IA para robar datos, extorsionar, crear empleos falsos y desarrollar software de secuestro, lo que representa un nuevo desafío para la protección de la seguridad cibernética.

Hackers

Nota de crédito de la imagen: La imagen fue generada por IA, el proveedor de licencias de la imagen es Midjourney

Un caso grave mencionado en el informe es una operación criminal en línea con el nombre en código GTG-2002. Anthropic señaló que este grupo de hackers utilizó Claude Code para robar datos a gran escala a al menos 17 organizaciones, incluyendo hospitales, servicios de emergencia, instituciones gubernamentales y grupos religiosos. A diferencia de los ataques tradicionales de ransomware, los atacantes no cifraron los archivos, sino que amenazaron con revelar la información robada y exigieron rescindir, algunas veces incluso superando los 500.000 dólares. Anthropic señaló que el atacante utilizó un "nivel sin precedentes" de IA en la automatización de tareas, incluida la exploración de sistemas vulnerables, obtención de credenciales y análisis de qué archivos robados tenían mayor valor, e incluso generación de notificaciones de rescate.

Además, el informe reveló que algunos operadores de TI utilizaron Claude para obtener trabajo remoto en empresas Fortune 500 de Estados Unidos. Estos operadores generaron currículums convincentes, pasaron pruebas de programación y hasta completaron tareas técnicas, violando las sanciones internacionales para enviar salarios a Pyongyang. Anthropic indicó que el uso de la IA eliminó las barreras que los estafadores habían tenido durante mucho tiempo, permitiendo que operadores que antes no podían escribir código básico o comunicarse profesionalmente en inglés ahora puedan pasar entrevistas técnicas.

En otro caso, un delincuente con habilidades limitadas en programación utilizó Claude para crear múltiples tipos de software de secuestro, los cuales se vendieron en foros subterráneos a precios entre 400 y 1200 dólares, cada uno con funciones de cifrado y anti-recuperación. Anthropic señaló que este delincuente "dependió de la IA para desarrollar malware funcional", lo que indica que armas cibernéticas avanzadas ahora son accesibles incluso para criminales con poca habilidad técnica.

Anthropic indicó que ha prohibido cuentas relacionadas con estas operaciones, implementado nuevas "medidas preventivas de seguridad" y compartido sus hallazgos con las autoridades correspondientes. La empresa también reconoció que el desarrollo de crímenes cibernéticos con asistencia de IA ha superado las expectativas de muchas personas, advirtiendo que "herramientas de IA inteligentes están siendo utilizadas para proporcionar consejos técnicos y soporte operativo activo, para ataques que antes requerían equipos de operadores múltiples".