Eine kürzlich durchgeführte Studie von Forschern hat Sprachmodelle von Unternehmen wie OpenAI, Meta, Google und Anthropic getestet. Die Ergebnisse zeigen, dass diese Modelle anhand anonymisierter Texte persönliche Informationen wie ethnische Zugehörigkeit, Beruf und Wohnort mit einer Genauigkeit von 85% bis 95% ermitteln können.
Die Forscher warnen vor dem Missbrauchspotenzial dieser Sprachmodelle und der damit verbundenen Gefahr für die Privatsphäre anonymisierter Nutzer. Experten empfehlen den beteiligten Unternehmen, umfassendere Datenschutzmaßnahmen zu ergreifen. Dies beinhaltet die Einschränkung der Inferenzfähigkeit der Sprachmodelle sowie die Sensibilisierung der Nutzer für den Datenschutz, um ein unbeabsichtigtes Offenlegen persönlicher Informationen bei der Nutzung von Chatbots zu vermeiden.