In letzter Zeit warnte ein britischer Internet-Sicherheits-Befürworter die nationale Kommunikationsbehörde Ofcom vor der Verwendung von Künstlicher Intelligenz (KI) durch Meta (ehemals Facebook) bei der Durchführung kritischer Risikobewertungen. Dieser Appell basiert auf einem Bericht, der besagt, dass Meta bis zu 90 % seiner Risikobewertungsarbeiten automatisiert durch KI ausführen möchte. Diese Änderung hat weitreichende Bedenken hinsichtlich der Sicherheit der Nutzer, insbesondere der minderjährigen Nutzer, ausgelöst.

Roboter KI KI (4)

Quellenachweis: Das Bild wurde durch KI generiert, berechtigtes Lizenzdienstleister Midjourney

Gemäß dem britischen Online-Sicherheitsgesetz haben soziale Medienplattformen die Verpflichtung, potenzielle Schäden ihrer Dienste zu bewerten und angemessene Maßnahmen zur Minderung dieser Risiken zu ergreifen. Dieser Risikobewertungsprozess gilt als wesentliches Element des Gesetzes, um die Sicherheit der Nutzer, insbesondere der Kinder, sicherzustellen. Mehrere Organisationen, darunter die Molly Rose Stiftung, das Kinderhilfsorganisation NSPCC und die Internetwatchstiftung, sehen die Abgabe der Risikobewertungen an KI als „rückwärtsgewandten und äußerst beunruhigenden Schritt“ an.

In ihrem Brief an die CEO von Ofcom, Melanie Dawes, forderten die Befürworter eine klare Feststellung, dass Risikobewertungen, die vollständig oder hauptsächlich durch automatisierte Systeme durchgeführt werden, nicht als „angemessen und ausreichend“ angesehen werden sollten. Der Brief betont auch, dass Ofcom die Annahme hinterfragen sollte, dass Plattformen in der Risikobewertung weniger streng sein könnten. Ein Ofcom-Sprecher erklärte, dass die Behörde diese Bedenken sorgfältig prüfen werde und zu gegebener Zeit eine Antwort abgeben wird.

Meta antwortete auf den Brief und betonte seine Verpflichtung zur Sicherheit. Ein Sprecher von Meta erklärte: „Wir verwenden KI nicht zur Risikobestimmung, sondern entwickeln ein Werkzeug, das Teams dabei hilft, gesetzliche und politische Anforderungen für bestimmte Produkte zu identifizieren. Unsere Technologie wird unter menschlicher Aufsicht eingesetzt, um die Fähigkeit zur Verwaltung schädlicher Inhalte zu verbessern, und unsere technologischen Fortschritte haben signifikante Verbesserungen der Sicherheitsergebnisse gebracht.“

Die Molly Rose Stiftung zitierte in der Organisation des Briefes einen Bericht von NPR, wonach Metas kürzliche Algorithmus-Updates und neue Sicherheitsfunktionen hauptsächlich durch KI-Systeme genehmigt werden sollen, anstatt durch manuelle Überprüfung. Ein anonymer ehemaliger Meta-Manager äußerte, dass diese Änderung es der Firma ermöglichen wird, neue Updates und Funktionen für Facebook, Instagram und WhatsApp schneller zu veröffentlichen, aber gleichzeitig „ein höheres Risiko“ mit sich bringt, da potenzielle Probleme in neuen Produkten vor der Einführung schwerer entdeckt werden könnten.

NPR erwähnte auch, dass Meta darüber nachdenkt, einige sensible Bereiche wie Jugendrisiken und falsche Informationen automatisiert zu überprüfen.

Hauptpunkte:

📉 Internet-Sicherheitsorganisationen fordern Ofcom auf, Metas Nutzung von KI bei Risikobewertungen einzuschränken, da sie Bedenken bezüglich der Nutzer-Sicherheit haben.

🔍 Meta reagierte, indem es betonte, dass es keine Risikodecision durch KI trifft, sondern ein Werkzeug unter menschlicher Kontrolle verwendet, um die Fähigkeit zur Inhaltverwaltung zu verbessern.

⚠️ Berichte zeigen, dass Metas jüngste Änderungen möglicherweise das Risiko erhöhen könnten, wenn neue Funktionen veröffentlicht werden, und potenzielle Probleme schwerer frühzeitig erkannt werden können.