Der CEO von OpenAI, Sam Altman, sprach in einer Live-Veranstaltung des Podcasts „Hard Fork“ freiwillig über die Urheberrechtsklage mit der New York Times. Diese Klage wurde von der New York Times gegen OpenAI und ihren Hauptinvestor Microsoft eingereicht und wirft OpenAI vor, ohne Erlaubnis Inhalte der New York Times bei der Ausbildung großer Sprachmodelle zu verwenden. Altman zeigte sich unzufrieden, insbesondere mit der Forderung in der Klage, dass OpenAI Chat-Protokolle speichern muss, egal ob Nutzer den privaten Modus verwendet oder um Löschung der Chats gebeten hat.

Altman sagte: „Die New York Times ist eine großartige Institution, aber ihre jetzigen Ansprüche besagen, dass wir diese Chat-Protokolle speichern müssen, egal ob Nutzer den privaten Modus verwenden oder um das Löschen der Chats bitten.“ Er betonte, dass OpenAI die Position der New York Times respektiert, aber auf dem Gebiet der Nutzerprivatsphäre eine klare Haltung einnehmen wird.

Urheberrecht

In der Sendung wurde Altman auch nach der Beziehung zwischen OpenAI und Microsoft gefragt. Obwohl die beiden Unternehmen früher enge Partner waren, gerieten sie kürzlich aufgrund von Vertragsverhandlungen in Spannung und begannen in einigen Bereichen direkt miteinander zu konkurrieren. Altman erklärte, dass bei jeder tiefgreifenden Zusammenarbeit Konflikte unvermeidbar seien. Er glaubt jedoch, dass die Zusammenarbeit zwischen den beiden Unternehmen weiterhin wichtige Vorteile für beide Seiten bringen wird.

Zudem äußerte sich Altman zu der Situation, in der Nutzer ChatGPT nutzen, um Verschwörungstheorien oder Themen rund um Suizid zu besprechen, wenn sie sich mental nicht gut fühlen. Er sagte, dass OpenAI bereits mehrere Maßnahmen ergriffen habe, um dies einzudämmen. Dazu gehöre es, solche Gespräche frühzeitig zu unterbrechen und Nutzer anzuweisen, professionelle Hilfe zu suchen. Er betonte, dass OpenAI nicht nochmals so langsam reagieren wolle wie die Technologieunternehmen der vorherigen Generation, aber für nutzer mit psychischer Empfindlichkeit habe man bislang noch keine effektive Warnmethode gefunden.

Unter dem Druck von Wettbewerb und Rechtsstreitigkeiten arbeitet die Führungsebene von OpenAI mit aller Kraft, um die nachhaltige Entwicklung des Unternehmens und die Sicherheit der Nutzer zu gewährleisten.