Digital Life

YouTube verändert heimlich hochgeladene Videos mit KI

Beato schaut anders aus als sonst. Das glaubt er zumindest. Oder doch nicht? „Ich dachte mir: ,Mann, meine Haare schauen irgendwie seltsam aus. Und trage ich Make-up?‘“ wird der YouTuber mit über 5 Millionen Abonnenten von BBC zitiert.

Wie sich jetzt herausstellt, ist das kein Fall von „die Kamera trägt immer 20 Pfund auf“ oder ähnlichen Weisheiten, wenn man sich selbst am Bildschirm sieht. Einige seiner Videos wurden von YouTube, ungefragt und ohne Erlaubnis, mittels Künstlicher Intelligenz überarbeitet.

Shull, ein Freund von Beato, ist ebenfalls betroffen. Er hat ein Video zu der Thematik veröffentlicht, das mittlerweile über 680.000 Aufrufe hat.

YouTuber mögen den KI-Look nicht

Je nach Video fallen die Veränderungen unterschiedlich stark aus. So wird etwa manchmal der Detailgrad künstlich erhöht, weshalb auf einmal Falten in T-Shirts viel mehr betont sind. An einigen Stellen erscheint Haut schärfer gezeichnet, an anderen fast so, als würde ein Weichzeichner darüber liegen. In einigen Fällen kann man beobachten, wie sich, mitten im Video, die Form der Ohren ändert.

Die YouTuber sind sauer. Nicht nur, weil sie nie die Erlaubnis gegeben haben, dass ihre Videos überarbeitet werden, sondern auch, weil diese jetzt diesen KI-Look haben. Das würde unseriös wirken, weil die YouTuber eben keine KI-Inhalte verwenden. „Das missinterpretiert mich und das, was ich im Internet mache, extrem. Es könnte potenziell das Vertrauen, das mein Publikum in mich hat, untergraben“, sagt Shull.

➤ Mehr lesen: Wie in China? Hamburg testet umstrittene KI-Videoüberwachung

YouTube: „Keine KI, sondern Machine Learning“

Nach etlichen Beschwerden, die bis Juni zurückgehen, hat sich YouTube jetzt zu dieser Sache geäußert. „Es ist keine generative KI. Wir haben ein Experiment laufen, bei dem wir traditionelles Machine Learning auf ausgewählte YouTube Shorts anwenden, um nachzuschärfen und die Klarheit zu erhöhen, ähnlich wie es moderne Smartphones beim Aufnehmen eines Videos machen“, sagt Rene Ritchie, bei YouTube Head of Editorial.

Sein Statement kommt in den sozialen Netzwerken nicht gut an. „Es ist absolut nicht ok, dass ihr die Werke von Usern einfach so verändert“, ist da etwa zu lesen und: „Am Handy kann ich mir aussuchen, ob ich den Beauty Filter aktiviere und bekomme ihn nicht aufgezwungen.“

Ebenso wird kritisiert, dass YouTube von „traditionellem Machine Learning“ spricht, anstatt von KI. „YouTube versucht hier die Nutzung von KI zu verschleiern, wegen der Bedenken, die Menschen gegen die Technologie haben. Machine Learning ist ein Teilbereich von KI“, sagt Samuel Wooley zur BBC, der an der Universität von Pittsburgh zu Desinformation unterrichtet.

➤ Mehr lesen: Wie YouTube jetzt gegen nervige KI-Videos vorgeht

Vom Experiment zur Verschwörungstheorie

Ritchie hat mit einem weiteren Post auf X versucht Schadensbegrenzung zu betreiben, indem er den Unterschied zwischen generativer KI und Machine Learning erklärt. Auch das stößt auf Kritik der User. So wird abermals gefragt, warum man denn Machine Learning brauche, die ungefragt die Hauttöne der Menschen verändert und ihre Körperteile deformiert, wenn man doch nur die Aufnahmen klarer machen wolle.

Einige User haben auch eine Verschwörungstheorie zu diesem Thema. Sie werfen YouTube vor, Zuseher an den „KI-Stil“ gewöhnen zu wollen, damit zukünftig Videos weniger negativ auffallen, die Creators bewusst mit KI-Tools von YouTube erstellt haben.

Denn leichter Content produzieren, heiße für YouTube, dass die Creator eher auf dieser Plattform bleiben, statt andere zu nutzen. Und mehr Content heißt für YouTube mehr Platz, um die Werbungen der Werbekunden einzubauen und eine längere Verweildauer der Zuseher auf der Plattform – die dadurch mehr Werbung zu sehen bekommen. Kurz gesagt: YouTube würde nach dieser These mehr Geld verdienen, wenn User KI-Inhalte als „das neue Normal“ wahrnehmen.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!