Anthropic, das Unternehmen, das versucht hat, den AI-Modell „Claude“ zur Erstellung von Blog-Inhalten zu nutzen, schloss kürzlich seine offizielle Blog-Seite namens „Claude Explains“ stillschweigend und leitete die ursprüngliche URL auf die Startseite der Firma um, beendete damit dieses nur etwa eine Woche dauernde Inhaltsexperiment.

Laut Informierten war dieser Blog-Projektursprung Teil eines Pilotversuchs, bei dem es darum ging, „Tricks und Tipps“-Artikel, die von Claude generiert wurden, mit den Marketingstrategien der Firma zu verbinden. Der Blog wurde von einem menschlichen Redaktionsteam überwacht und sollte die Fähigkeiten des AI-Systems in den Bereichen kreative Schreibweise, Codeanalyse und Datenvisualisierung zeigen. Obwohl Anthropic betonte, dass menschliche Experten die Konsistenz und Genauigkeit der Entwürfe von Claude erhöhen, wurde nie klar kommuniziert, wie groß der Anteil der menschlichen und künstlichen Beiträge pro Beitrag war.

Claude

„Claude Explains“ hatte unabhängige Seiten um technische Themen wie die Vereinfachung komplexer Codebibliotheken gedreht. Doch wie TechCrunch bemerkte, obwohl die Inhalte von guter Qualität waren, fand die soziale Resonanz nicht den erhofften Anklang. Nutzer bezweifelten die Transparenz der Inhaltsgenerierung, und viele kritisierten, dass dies eher einer „automatisierten Content-Marketing-Taktik“ ähnelte.

Nach Daten von Ahrefs hatten vor der Schließung des Blogs mehr als 24 externe Links von Websites darauf hinzuweisen, was für einen Versuch, der nur weniger als einen Monat dauerte, durchaus beachtlich ist. Doch das änderte nichts an seinem plötzlichen Ende.

Eine Analyse deutet darauf hin, dass Anthropic möglicherweise Angst hatte, dass Claude in der Schaffung von Inhalten überbeworben werden könnte. Auch die fortschrittlichsten großen Modelle haben aktuell Probleme mit der „Halluzination“, d.h., sie generieren selbstsicher aber fehlerhafte Informationen. Kürzlich gerieten Medien wie Bloomberg und G/O Media in PR-Krisen, da ihre AI-generierten Inhalte Fehlerhaftes enthielten.

Vorher hatte Anthropic betont, dass „Claude Explains“ ein Beispiel dafür sei, wie menschliches Fachwissen mit künstlicher Intelligenz zusammenarbeitet und keine Vertretung von Experten durch AI ist. Doch aus der heutigen Perspektive liefert diese Experimentation dem realen Hinweis, wie AI in die Hauptströmung der Content-Erstellung gelangen kann: Neben der Fähigkeitsdemonstration bedarf es auch Transparenz und Vorsicht.