Google hat kürzlich seine Nutzungsbedingungen für generative KI aktualisiert und klargestellt, dass Kunden seine generativen KI-Tools für „automatisierte Entscheidungen“ in „risikoreichen“ Bereichen wie dem Gesundheitswesen einsetzen können, jedoch unter der Voraussetzung menschlicher Aufsicht.
Gemäß der am Dienstag von Google veröffentlichten aktualisierten Richtlinie zu verbotenen Anwendungen generativer KI dürfen Kunden Googles generative KI verwenden, um „automatisierte Entscheidungen“ zu treffen, die „erhebliche negative Auswirkungen“ auf die Rechte von Personen haben könnten. Solange eine Form der menschlichen Aufsicht vorhanden ist, können Kunden Googles generative KI verwenden, um Entscheidungen in Bezug auf Beschäftigung, Wohnen, Versicherungen, Sozialleistungen und andere „risikoreiche“ Bereiche zu treffen.
Im Bereich der KI bezieht sich automatisierte Entscheidungsfindung auf Entscheidungen, die ein KI-System auf der Grundlage von Fakten und Schlussfolgerungen trifft. Beispielsweise könnte ein System automatisch entscheiden, ob ein Kreditantrag genehmigt wird oder Bewerber ausgewählt werden.

Zuvor deutete der Entwurf der Google-Bedingungen ein umfassendes Verbot der Verwendung der generativen KI des Unternehmens für risikoreiche automatisierte Entscheidungen an. Google teilte TechCrunch jedoch mit, dass Kunden seine generative KI immer für automatisierte Entscheidungen verwenden können, selbst bei risikoreichen Anwendungen, solange eine menschliche Aufsicht besteht.
„Für alle risikoreichen Bereiche bestand unsere Anforderung an die menschliche Aufsicht stets in unseren Richtlinien“, sagte ein Google-Sprecher in einer E-Mail. „Wir sortieren einige Elemente [in den Bedingungen] neu ein und listen einige Beispiele genauer auf, um den Kunden mehr Klarheit zu verschaffen.“
Die wichtigsten KI-Konkurrenten von Google, OpenAI und Anthropic, haben strengere Regeln für die Verwendung von KI bei risikoreichen automatisierten Entscheidungen. OpenAI verbietet beispielsweise die Verwendung seiner Dienste für automatisierte Entscheidungen im Zusammenhang mit Krediten, Beschäftigung, Wohnen, Bildung, sozialen Bewertungen und Versicherungen. Anthropic erlaubt die Verwendung seiner KI für automatisierte Entscheidungen in den Bereichen Recht, Versicherungen, Gesundheitswesen und anderen risikoreichen Bereichen, jedoch nur unter der Aufsicht von „qualifizierten Fachkräften“ und unter der Bedingung, dass Kunden offenlegen, dass sie die KI für diesen Zweck verwenden.
Automatisierte Entscheidungsfindungs-KI, die Einzelpersonen betrifft, steht unter genauer Beobachtung der Aufsichtsbehörden, die Bedenken hinsichtlich möglicher voreingenommener Ergebnisse dieser Technologie haben. Studien haben beispielsweise gezeigt, dass KI, die zur Genehmigung von Kredit- und Hypothekenanträgen verwendet wird, historische Diskriminierung fortsetzen kann.
Die Nichtregierungsorganisation Human Rights Watch fordert ein Verbot von „Social-Scoring“-Systemen, von denen sie glaubt, dass sie die Möglichkeiten der Menschen, soziale Unterstützung zu erhalten, beeinträchtigen, ihre Privatsphäre schädigen und sie auf voreingenommene Weise profilieren könnten.
Im Rahmen des EU-AI-Acts unterliegen risikoreiche KI-Systeme (einschließlich Systeme, die Entscheidungen über persönliche Kredite und Beschäftigung treffen) den strengsten Vorschriften. Anbieter dieser Systeme müssen sich in einer Datenbank registrieren, Qualitäts- und Risikomanagement durchführen, menschliche Aufsichtspersonen beschäftigen, Vorfälle an die zuständigen Behörden melden und andere Anforderungen erfüllen.
In den USA hat der Bundesstaat Colorado kürzlich ein Gesetz verabschiedet, das KI-Entwickler verpflichtet, Informationen über „risikoreiche“ KI-Systeme offenzulegen und Erklärungen zu veröffentlichen, die die Funktionen und Einschränkungen des Systems zusammenfassen. Gleichzeitig verbietet New York City Arbeitgebern die Verwendung automatisierter Tools zur Auswahl von Bewerbern für Beschäftigungsentscheidungen, es sei denn, das Tool wurde im Vorjahr einer Voreingenommenheitsüberprüfung unterzogen.
Die Klarstellung der KI-Nutzungsbedingungen durch Google zeigt die Haltung des Unternehmens zur Regulierung der KI-Anwendung. Die Zulassung automatisierter Entscheidungen in risikoreichen Bereichen unter Betonung der Bedeutung menschlicher Aufsicht zeigt sowohl das Potenzial der KI-Technologie als auch die Vorsicht gegenüber potenziellen Risiken.