Kürzlich entdeckten Sicherheitsforscher von Cato Network in einer Undergrundforen zwei neue Versionen des WormGPT, eines malicioschen Tools, das im Jahr 2023 großes Aufsehen erregte und als geschlossen galt. Diese beiden neuen Versionen heißen "keanu-WormGPT" und "xzin0vich-WormGPT". Sie nutzen jeweils kommerzielle AI-Modelle wie die xAI'sche Grok und Mistral's Mixtral, um Cyberkriminellen bei der Erstellung von Phishing-E-Mails, dem Schreiben von Schadcode und der Umgehung der Sicherheitsmaßnahmen legaler AI-Plattformen zu helfen.
Quellenhinweis: Das Bild wurde durch KI generiert; Lizensierungsdienstleister Midjourney
Die ursprüngliche Version des WormGPT wurde von einem portugiesischen Hacker namens „Last“ entwickelt, der Open-Source-Modelle wie GPT-J nutzte, um ethische Einschränkungen herkömmlicher AI-Tools zu umgehen. Obwohl dieses Tool im Jahr 2023 geschlossen wurde, hat dies seine Auswirkungen nicht beendet, sondern eine neue Trendlinie ausgelöst. Vitaly Simonovich, ein Forscher für Gefahrenintelligenz bei Cato Networks, bemerkte: „WormGPT“ ist nun ein erkennbares Label für eine neue Generation von unbeschränkten Sprachmodellen (LLMs).
Die Version „keanu-WormGPT“ wurde am 25. Februar 2025 von einem Benutzer über einen Telegram-Chatbot veröffentlicht und basiert auf dem Grok-Modell. Die Forscher analysierten diese Version mit Überflutungstechniken und stellten fest, dass deren System-Prompt manipuliert wurde, um Grok zu veranlassen, seine ethischen Schutzmaßnahmen zu ignorieren und Skripte für Phishing-E-Mails und das Stellen von Zugangsdaten zu erstellen.
Die andere Version, „xzin0vich-WormGPT“, wurde am 26. Oktober 2024 von einem Benutzer namens „xzin0vich“ über den Mistral-AI-Mixtral-Modell veröffentlicht. Ähnlich wie die Grok-Version wird auch diese über Telegram betrieben und reagiert auf unmoralische oder illegale Anfragen. Die Cato-Team nutzte ähnliche Überflutungsmethoden, um die System-Prompts zu analysieren und bestätigten, dass diese Version auf der Mixtral-Architektur läuft.
Das Auftauchen neuer Versionen von WormGPT zeigt, wie böswillige Akteure sich anwenden, um sich an die ständig fortschreitende AI-Technologie anzupassen. Während legale Plattformen ihre ethischen Grenzen verstärken, nutzen Kriminelle diese Werkzeuge für böswillige Zwecke. Seit der Schließung der ursprünglichen WormGPT-Version sind weitere Modelle wie FraudGPT, DarkGPT und EvilGPT aufgetaucht. Simonovich erklärte: „Diese neuen Versionen von WormGPT sind keine spezialisierten Modelle, sondern das Ergebnis geschickter Anpassungen existierender Sprachmodelle durch gefährdete Akteure.“
In Anbetracht dieser neuen Entwicklungen betonen Cyber-Sicherheitsexperten die Notwendigkeit, Verteidigungsstrategien zu verstärken. Cato Networks empfiehlt mehrere Best Practices, darunter die Verbesserung der Gefahrenerkennung und -reaktion, strengere Zugriffssteuerung sowie die Steigerung der Sicherheitskompetenz und -ausbildung.
Highlights:
🌐 **Neue Entdeckung**: Cato Network hat zwei neue Versionen von WormGPT gefunden, die der Kriminalität dienen.
🔒 **Tool-Verbesserung**: Die neuen Versionen basieren auf Grok und Mixtral und können AI-Sicherheitsvorkehrungen umgehen.
🛡️ **Sicherheitsempfehlungen**: Experten fordern eine verstärkte Cyber-Sicherheit, um sich den stetig weiterentwickelnden Bedrohungen zu stellen.