Neulich kündigte die soziale Plattform X (ehemals Twitter) eine neue Funktion an, bei der KI-Chatsysteme „Gemeinschaftsnotizen“ generieren können. Diese Funktion basiert auf dem System der „Gemeinschaftsnotizen“ aus der Zeit von Twitter und wurde durch Elon Musks Erweiterung und Optimierung entwickelt, um die Genauigkeit und Transparenz der Informationen auf der Plattform zu verbessern.

Was sind Gemeinschaftsnotizen? Kurz gesagt, ist es ein vom Nutzer gestaltetes Faktencheck-Projekt. Nutzer, die an diesem Projekt teilnehmen, können Kommentare zu bestimmten Beiträgen hinzufügen, um detailliertere Hintergrundinformationen bereitzustellen. Diese Notizen müssen vor der Veröffentlichung von anderen Nutzern überprüft werden. Zum Beispiel kann eine Gemeinschaftsnotiz ergänzen, wenn ein von einer KI generierter Video nicht klar seine Quelle angibt, oder Korrekturinformationen zu einem irreführenden Beitrag eines Politikers bereitstellen.

Grok, Elon Musk, xAI

Diese Funktion hat bereits Erfolge auf der Plattform X gezeigt und hat sogar das Interesse von anderen sozialen Medienplattformen wie Meta, TikTok und YouTube geweckt. Sie folgen nun dem Beispiel und führen ähnliche, communitybasierte Prüfungsmaßnahmen ein. Meta hat sogar sein Programm für unabhängige Faktenchecks abgeschafft und sich stattdessen auf die Kraft der Community-Nutzer verlassen.

Allerdings gibt es weiterhin Kontroversen, wenn es darum geht, KI zur Faktenprüfung zu verwenden. KI erzeugt häufig sogenannte „Halluzinationen“, also fiktive, ungenaue Informationen. Daher plant die Plattform X, ihre eigene Grok-Technologie und andere API-Schnittstellen zu nutzen, um KI-generierte Gemeinschaftsnotizen zuzulassen. Allerdings werden diese KI-generierten Inhalte denselben Überprüfungsprozess unterliegen wie die von Nutzern eingereichten Inhalte, um die Genauigkeit sicherzustellen.

Eine neuere Studie zeigt, dass KI und Menschen zusammenarbeiten sollten, um die Qualität der von KI generierten Notizen durch menschliches Feedback zu verbessern. Die endgültige Prüfung durch Menschen wird die letzte Stufe des Veröffentlichungsprozesses sein. Die Studie betont: „Das Ziel ist nicht, der KI zu sagen, wie die Nutzer denken sollen, sondern ein Ökosystem zu schaffen, in dem Menschen kritischer denken und die Welt besser verstehen können.“

Aber auch der Einsatz von KI bringt Risiken mit sich, insbesondere wenn Nutzer Sprachmodelle von Dritten einbetten können. Zum Beispiel hatte OpenAI kürzlich Probleme, weil ChatGPT zu sehr den Wünschen der Nutzer folgte. Wenn solche Sprachmodelle mehr Wert auf „Nützlichkeit“ als auf Genauigkeit legen, können die generierten Kommentare völlig unzuverlässig sein. Außerdem könnten zu viele KI-generierte Kommentare die menschlichen Prüfer überfordern und deren Motivation beeinträchtigen.

Es ist wichtig zu beachten, dass KI-generierte Gemeinschaftsnotizen noch nicht vollständig freigeschaltet wurden. Die Plattform X plant, sie in den nächsten Wochen zu testen, und wird nur bei positivem Ergebnis über eine breite Verbreitung nachdenken.