Eine kürzlich von der Eidgenössischen Technischen Hochschule Zürich (ETH Zürich) durchgeführte Studie hat ergeben, dass große Sprachmodelle wie GPT-4 aus den Benutzereingaben eine Vielzahl von persönlichen Informationen ableiten können. Die Studie zeigt, dass GPT-4 die stärkste Inferenzfähigkeit besitzt und eine Genauigkeit von 84,6 % erreicht, die mit zunehmender Modellgröße weiter zunimmt. Dies liegt hauptsächlich daran, dass große Sprachmodelle riesige Mengen an Internetdaten gelernt haben, die auch persönliche Informationen enthalten. Die Forscher befürchten, dass dies dazu führen könnte, dass Chatbots verwendet werden, um Nutzern gezieltere Werbung zukommen zu lassen. Branchenexperten geben an, dass es nahezu unmöglich ist, persönliche Informationen aus den Trainingsdaten zu entfernen.
Chatbots könnten Ihre Privatsphäre gefährden

爱范儿
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.