Recientemente, los investigadores de seguridad de Cato Network descubrieron dos nuevas versiones de WormGPT en foros subterráneos. Esta herramienta maliciosa, que llamó la atención en 2023 y se creía que había sido desactivada, ahora tiene dos nuevas versiones llamadas keanu-WormGPT y xzin0vich-WormGPT. Estas versiones utilizan respectivamente los modelos comerciales xAI Grok y Mistral Mixtral para ayudar a los criminales cibernéticos a crear correos electrónicos de phishing, escribir código malicioso y evadir las medidas de seguridad de plataformas legítimas de IA.

Hacker

Crédito de la imagen: Imagen generada por IA, servicio de autorización Midjourney

El WormGPT original fue creado por un hacker portugués conocido como "Last", quien utilizó el modelo de código abierto GPT-J para evitar las restricciones éticas de las herramientas de IA principales. A pesar de que esta herramienta fue desactivada en 2023, su influencia no ha terminado, sino que ha generado una nueva tendencia. El investigador de inteligencia de amenazas de Cato Networks, Vitaly Simonovich, señaló que "WormGPT" se ha convertido en una marca reconocida que representa una nueva clase de modelos de lenguaje sin restricciones (LLMs).

La versión keanu-WormGPT fue publicada el 25 de febrero de 2025 por un usuario, operando a través de un bot de Telegram basado en el modelo Grok. Los investigadores utilizaron técnicas de escape para analizar cómo funciona keanu-WormGPT, descubriendo que sus indicaciones del sistema fueron manipuladas para instruir a Grok a ignorar sus protecciones éticas, generando scripts para correos de phishing y robo de credenciales.

Otra versión, xzin0vich-WormGPT, fue lanzada el 26 de octubre de 2024 por el usuario "xzin0vich", utilizando el modelo Mixtral de Mistral AI. Similar a su versión con Grok, esta versión también opera a través de Telegram y responde a solicitudes inmorales o ilegales. El equipo de Cato utilizó métodos de escape similares para obtener las indicaciones del sistema, confirmando que esta versión se ejecuta sobre la arquitectura Mixtral.

La reaparición de WormGPT destaca cómo los actores maliciosos se adaptan a las tecnologías emergentes de IA. Aunque las plataformas legítimas están fortaleciendo sus límites éticos, los criminales cibernéticos están utilizando las mismas herramientas para usos maliciosos. Desde que se cerró la versión original de WormGPT, han aparecido otros modelos como FraudGPT, DarkGPT y EvilGPT. Simonovich señaló que "estas nuevas versiones de WormGPT no son modelos personalizados, sino el resultado de los actores de amenazas modificando ingeniosamente modelos de lenguaje existentes".

Dada estas nuevas desarrollos, los expertos en ciberseguridad enfatizan la necesidad de fortalecer las estrategias de defensa. Cato Networks sugiere adoptar varias mejores prácticas, incluidas la mejora de la detección y respuesta a amenazas, la implementación de controles de acceso más estrictos y la promoción de la conciencia y capacitación en seguridad.

¡Puntos clave:

🌐 ** Nueva Encuentra **: Cato Network descubre dos nuevas versiones de WormGPT que ayudan al crimen cibernético.

🔒 ** Actualización de Herramientas **: Las nuevas versiones utilizan Grok y Mixtral para evadir las protecciones de seguridad de IA.

🛡️ ** Recomendaciones de Seguridad **: Los expertos urgen fortalecer las medidas de protección cibernética ante amenazas en constante evolución.