Eine Studie von Google DeepMind zeigt, dass ChatGPT durch einfache Abfrageangriffe das Risiko birgt, Trainingsdaten preiszugeben. Selbst mit angepassten Sicherheitseinstellungen gelang es einem Angriffsteam, ein produktionsreifes Modell zu knacken. Dies unterstreicht die Notwendigkeit, Datenschutz und Sicherheit ernst zu nehmen.
Entwicklern wird empfohlen, die Privatsphäre und den Schutz ihrer Modelle zu verbessern, umfassendere Tests durchzuführen und die Sicherheit großer Sprachmodelle zu gewährleisten.