Eine kürzlich von der Eidgenössischen Technischen Hochschule Zürich (ETH Zürich) durchgeführte Studie hat ergeben, dass große Sprachmodelle wie GPT-4 aus den Benutzereingaben eine Vielzahl von persönlichen Informationen ableiten können. Die Studie zeigt, dass GPT-4 die stärkste Inferenzfähigkeit besitzt und eine Genauigkeit von 84,6 % erreicht, die mit zunehmender Modellgröße weiter zunimmt. Dies liegt hauptsächlich daran, dass große Sprachmodelle riesige Mengen an Internetdaten gelernt haben, die auch persönliche Informationen enthalten. Die Forscher befürchten, dass dies dazu führen könnte, dass Chatbots verwendet werden, um Nutzern gezieltere Werbung zukommen zu lassen. Branchenexperten geben an, dass es nahezu unmöglich ist, persönliche Informationen aus den Trainingsdaten zu entfernen.