Derzeit hat Google angekündigt, die allgemeinen Leitlinien für künstliche Intelligenz der Europäischen Union unterzeichnen zu wollen. Dieses freiwillige Rahmenwerk soll Entwicklern helfen, gesetzliche Prozesse und Systeme umzusetzen. Dieser Schritt zeigt den aktiven Ansatz von Google in Bezug auf die Regulierung von KI und stellt gleichzeitig ein Vorbild für andere Technologieunternehmen dar.
Allerdings ist es erwähnenswert, dass der soziale Medienriese Meta Anfang dieses Monats bekanntgab, die Leitlinien nicht zu unterschreiben. Sie kritisierten die EU-Gesetzgebung zur KI als „übermäßige Einmischung“ und sind der Meinung, dass Europa bei der Entwicklung von KI falsch abgebogen sei.
Googles Engagement fällt gerade zum Zeitpunkt der Einführung neuer Regeln, die sich auf Anbieter allgemeiner KI-Modelle beziehen, die als „systemische Risiken“ betrachtet werden. Diese Regeln werden am 2. August in Kraft treten. Mehrere große Generativmodellunternehmen wie Anthropic, Google, Meta und OpenAI werden von diesen Regeln betroffen sein und müssen innerhalb von zwei Jahren vollständig der KI-Gesetzgebung folgen.
Kent Walker, Präsident für globale Angelegenheiten bei Google, schrieb in einem Blogbeitrag, dass obwohl die endgültige Version der Leitlinien besser als der ursprüngliche Vorschlag der EU sei, er dennoch Vorbehalte gegenüber der KI-Gesetzgebung und den Leitlinien habe. Er wies darauf hin, dass zu strenge Anforderungen die Entwicklung von KI in Europa hemmen könnten, insbesondere wenn diese Anforderungen mit dem aktuellen Urheberrechtsgesetz der EU im Widerspruch stünden oder wenn die Genehmigungsverfahren zu langsam seien und somit das Wettbewerbsvermögen von Unternehmen beeinträchtigten.
Das Unterzeichnen der EU-Leitlinien bedeutet, dass KI-Unternehmen eine Reihe von Leitfäden befolgen müssen, darunter die Aktualisierung der Dokumentation ihrer KI-Tools und -Dienste, den Verzicht darauf, gestohlene Inhalte für das Modelltraining zu verwenden, sowie das Respektieren der Forderungen der Inhaber von Inhalten, um die Nutzung ihrer Werke in Datensätzen zu vermeiden.
Die EU-KI-Gesetzgebung wird als risikobasierte Regulierung angesehen und verbietet einige „unakzeptable Risiken“, wie z. B. kognitive Verhaltenssteuerung und soziale Bewertung. Das Gesetz definiert auch „hochriskante“ Anwendungsszenarien, einschließlich biometrischer und Gesichtserkennungstechnologien sowie die Anwendung von KI in Bereichen wie Bildung und Beschäftigung. Darüber hinaus müssen Entwickler ihre KI-Systeme registrieren und den Anforderungen an Risikomanagement und Qualität entsprechen.