Kürzlich hat das Unternehmen Meta (das Mutterunternehmen von Facebook, Instagram, WhatsApp und Threads) bekannt gegeben, dass es seine interne Sicherheits- und Privatsphäre-Überprüfungsarbeit auf künstliche Intelligenz umstellen wird. Das Unternehmen plant, bis zu 90 % der Risikobewertungen automatisiert zu gestalten. Laut internen Dokumenten, die das NPR erhalten hat, werden die Verantwortlichkeiten für die Bewertung der Auswirkungen von Updates auf die Privatsphäre der Benutzer, die Auswirkungen auf Minderjährige oder auf die Verbreitung von Falschinformationen, von spezialisierten Teams in Zukunft hauptsächlich an KI-Technologien übertragen.

Meta, Metaversum, Facebook

In dem neuen Bewertungsrahmen müssen Produktteams ein Fragebogen ausfüllen, um die Aktualisierungen im Detail zu beschreiben, danach gibt das KI-System sofortige Bewertungsergebnisse aus, die potenzielle Risiken identifizieren und die Bedingungen für das Projekt festlegen. Menschliche Überwachung ist nur in bestimmten Situationen erforderlich, zum Beispiel wenn neue Risiken eingeführt werden oder das Team menschliche Einmischung explizit wünscht. Eine interne Präsentation von Meta zeigt, dass Teams auf Basis der KI-Bewertung „schnelle Entscheidungen“ treffen werden.

Diese Änderung ermöglicht Entwicklern, neue Funktionen schneller zu veröffentlichen, aber Experten, darunter ehemalige Meta-Manager, äußern Bedenken, dass eine zu schnelle Einführung von Produkten mit einem Rückgang der Vorsicht einhergehen könnte. „In gewisser Weise bedeutet dies, dass mehr Produkte schneller auf den Markt kommen und weniger Regulierung und Gegenüberprüfung stattfindet, was höhere Risiken nach sich ziehen wird“, so ein anonymer ehemaliger Manager von Meta.

Meta erklärte, dass der neue Prozess dazu diene, „Entscheidungen zu vereinfachen“, und dass „menschliches Fachwissen“ weiterhin für „neuartige und komplexe Probleme“ verwendet werde. Obwohl das Unternehmen betont, dass nur „niedrigere Risikodecisions“ automatisiert werden, zeigen interne Dokumente, dass auch sensible Bereiche wie AI-Sicherheit, Jugendrisiken und Inhaltsgenauigkeit automatisierte Bewertungen durchführen werden.

Einige Mitarbeiter von Meta sowie externe Kritiker warnten davor, die KI zu stark bei der Risikobewertung zu verlassen, da dies möglicherweise kurzsichtig sei. Ein ehemaliger Mitarbeiter sagte: „Jedes Mal, wenn sie ein neues Produkt einführen, wird es stark untersucht, und diese Untersuchungen finden oft Probleme heraus, die das Unternehmen ernster nehmen sollte.“

Außerdem unterliegt Meta seit 2012 einem Abkommen des Bundeshandelskommissions (FTC), das vorschreibt, dass es bei Produktaktualisierungen eine Privatsphäreevaluation durchführt. Meta erklärte, dass es bereits über 8 Milliarden Dollar in die Privatsphäreadjustierung investiert habe und den Prozess kontinuierlich verbessere.

Eine interessante Tatsache ist, dass europäische Nutzer möglicherweise nicht dasselbe Maß an Automatisierung erleben werden. Interne Kommunikation zeigt, dass Entscheidungen für EU-Produkte weiterhin vom Hauptsitz von Meta in Irland verwaltet werden sollen, da strengere Bestimmungen des Digital Services Acts für den Inhalt und den Datenschutz gelten.

Hier die Schwerpunkte:

🛡️ Meta plant, 90 % der Risikobewertungen durch KI durchführen zu lassen, um die Produktaktualisierung zu beschleunigen.  

⚠️ Experten befürchten, dass diese Maßnahme Sicherheitsrisiken fördern und die menschliche Überprüfung verringern könnte.  

🇪🇺 Nutzer in Europa erleben keine gleich hohe Grad der Automatisierung, da Entscheidungen durch den Hauptsitz in Irland getroffen werden.