Am 1. Januar 2024 ereignete sich in Las Vegas ein schockierender Vorfall. Ein Mann sprengte vor dem Trump Hotel einen Tesla Cybertruck. Nach Ermittlungen der Polizei von Las Vegas stellte sich heraus, dass der Mann vor der Tat das KI-Chatprogramm ChatGPT zur Planung benutzt hatte.

Bildquelle: Das Bild wurde mit KI generiert, Lizenzgeber ist Midjourney.
In einer Pressekonferenz erklärte die Polizei, dass der beteiligte Mann, Matthew Liversberg, in den Tagen vor dem Vorfall ChatGPT über 17 Mal befragt hatte. Die Fragen betrafen den Erwerb von Sprengstoff, rechtliche Fragen und die Verwendung von Schusswaffen zur Zündung des gewählten Sprengstoffs. Liversberg interagierte über eine Stunde lang in einfachem Englisch mit ChatGPT und diskutierte Fragen wie die Legalität von Feuerwerk in Arizona, den Kauf von Schusswaffen in Denver und die Auswahl einer geeigneten Waffe zur Zündung des Sprengstoffs.
Der stellvertretende Sheriff Dory Kolen bestätigte, dass die Antworten von ChatGPT eine entscheidende Rolle bei der Planung der Explosion spielten. ChatGPT lieferte Informationen über die Schussgeschwindigkeit von Waffen, die es Liversberg ermöglichten, den Plan auszuführen. Obwohl die Explosion nicht so stark war wie erwartet und ein Teil des Sprengstoffs nicht wie geplant gezündet wurde, war der Vorfall für die Strafverfolgungsbehörden dennoch äußerst schockierend.
Der Polizeichef von Las Vegas, Kevin McGill, erklärte: „Wir wussten schon lange, dass die künstliche Intelligenz irgendwann unser Leben verändern wird, aber dies ist das erste Mal, dass ich sehe, wie jemand ChatGPT benutzt, um einen so gefährlichen Plan zu schmieden.“ Er wies darauf hin, dass es derzeit keine staatlichen Kontrollmechanismen gibt, um solche Anfragen im Zusammenhang mit Sprengstoffen und Schusswaffen zu kennzeichnen.
Obwohl die Polizei von Las Vegas die genauen Fragen an ChatGPT noch nicht veröffentlicht hat, waren die in der Pressekonferenz gezeigten Fragen relativ einfach und enthielten keine traditionellen „Jailbreaking“-Begriffe. Bemerkenswert ist, dass diese Verwendung eindeutig gegen die Nutzungsbedingungen von OpenAI verstößt, aber es ist derzeit unklar, ob die Sicherheitsmaßnahmen von OpenAI zum Zeitpunkt der Nutzung des Tools durch Liversberg funktioniert haben.
OpenAI antwortete darauf, dass es sich dafür einsetzt, dass Benutzer seine Tools „verantwortungsbewusst“ nutzen und darauf abzielt, dass KI-Tools schädliche Anweisungen ablehnen. OpenAI erklärte weiter: „In diesem Fall hat ChatGPT lediglich auf öffentlich zugänglichen Informationen im Internet geantwortet und auch vor schädlichen oder illegalen Aktivitäten gewarnt. Wir arbeiten ständig daran, KI intelligenter und verantwortungsbewusster zu machen.“ Das Unternehmen arbeitet mit den Strafverfolgungsbehörden zusammen und unterstützt deren Ermittlungen.
Wichtigste Punkte:
🔍 Der Vorfall ereignete sich am 1. Januar 2024, ein Mann sprengte einen Tesla Cybertruck vor dem Trump Hotel in Las Vegas.
💡 Der Mann plante die Explosion eine Stunde lang mit ChatGPT und stellte Fragen zum Erwerb von Sprengstoff und Schusswaffen.
⚠️ Die Polizei erklärte, dass dies der erste Fall in den USA ist, in dem eine Person ChatGPT für eine so gefährliche Aktivität einsetzt, und dass es keine wirksamen staatlichen Kontrollmechanismen gibt.






