Laut einem Bericht von Phoenix Technology wurde der AI-Produkt „Dou Bao“ der Bytedance-Gruppe kürzlich aufgrund seiner integrierten Funktion zur Empfehlung von „verwandten Videos“ stark kritisiert. Mehrere Eltern berichteten, dass diese Funktion automatisch TikTok-Videos verknüpft und nicht deaktiviert werden kann, wodurch der „AI-Lern“-Szenario durch Unterhaltungs-Inhalte beeinträchtigt wird. Dies führt dazu, dass Benutzer, insbesondere Jugendliche, potenziell vom Werkzeug zum Unterhaltungsmedium wechseln.

Der Kern des Kontroversen liegt in der Abstimmung zwischen Produktpositionierung und Nutzererfahrung. Ein Elternteil kritisierte scharf: „Es ist wie ein TikTok innerhalb von Dou Bao.“ Sie sind es gewohnt, die Bildschirmzeit ihrer Kinder durch Kontrolle von Kurzvideos-Apps zu begrenzen, haben aber möglicherweise nicht bedacht, dass solche Zugänge auch in AI-Lernwerkzeugen vorhanden sein können. Dies zeigt ein neues blindes Fleck im Nutzermanagement und stellt Entwicklern von AI-Produkten neue ethische Herausforderungen.

Dou Bao, Grace, Bytedance

Es ist bekannt, dass diese Funktion standardmäßig aktiviert ist und selbst nach dem Versuch, mit der Anweisung „Videos ausschalten“ die Einstellungen zu ändern, am nächsten Tag wieder auf den Standardwert zurückgesetzt wird. Nutzer bemerkten, dass dies „keinen Sinn macht, denn es wird weiterhin empfohlen“. Einige Eltern ergänzten, dass in früheren Einstellungen von Dou Bao eindeutig Schalter für diese Funktion vorhanden waren, diese jedoch kürzlich unsichtbar verschwunden ist. Dies hat den Nutzern die Wahlmöglichkeiten genommen und ihre negativen Gefühle verstärkt.

Aus strategischer Sicht könnte die Integration von Kurzvideo-Inhalten in AI-Anwendungen darauf abzielen, die Nutzerbindung zu erhöhen oder Traffic zu kreuzen. Allerdings geht dies offensichtlich zu Lasten der Reinheit des Tools und löst Diskussionen über Benutzerdatenschutz, Inhaltskontrolle und Schutz von Minderjährigen aus. Während der Wachstumsorientierung ist es für alle Entwickler von AI-Produkten entscheidend, darüber nachzudenken, wie man Nutzerbedürfnisse und Produktethik in Einklang bringt.