Netzpolitik

Warum der TikTok-Algorithmus gefährlich ist

Viele Nutzer*innen kennen das: Sie öffnen einmal die TikTok-App und bleiben stundenlang bei diversen Kurzvideo-Clips hängen. Das liegt am Algorithmus, der die Videos für einen auswählt und einen Clip nach dem nächsten abspielt. Man kommt schwer wieder davon los, weil man die Videos aufgrund von „Autoplay“ bewusst stoppen muss.

Das „Wall Street Journal“ hat nun außerdem untersucht, wie TikTok die Videos, die einem angezeigt werden, aussucht. In einer aufwendigen Datenrecherche mit 100 fiktiven Bot-Accounts hat das Magazin rausgefunden, nach welchen Kriterien der Algorithmus entscheidet, welche Videos Nutzer*innen zu sehen bekommen, damit sie nicht mehr abdrehen. Der Algorithmus scheint sich binnen weniger Videos genau zu merken, wer wann wie lange welche Videos ansieht.

Was für den Algorithmus zählt

Dabei ist es weniger relevant, aus welchem Land jemand kommt, sondern vielmehr, was für Hashtags zu den Videos vergeben worden sind. Schon nach einer relativ kurzen Zeitspanne von zwei Stunden ist der Algorithmus in der Lage, den Nutzer*innen perfekt aufs Interessensprofil zugeschnittene Videos anzuzeigen.

Die Zahl der Likes und Shares der einzelnen Videos spielt dabei offensichtlich eine untergeordnete Rolle, wie das Wall Street Journal herausgefunden hat. Viel stärker zählt, ob jemand ein Video auch zu Ende angesehen hat. Ziel von TikTok ist es freilich, die Nutzer*innen dazu zu bringen, möglichst lange auf der Plattform zu verweilen.

Reingezogen in die Filterbubble

Der Algorithmus spielt den User*innen daher vor allem personalisierte Inhalte aus, die teilweise nicht mehr im Mainstream, sondern auch in Nischen und an Rändern zu verorten sind. Hier besteht nun laut dem Algorithmus-Forscher Jonathan Stray auch die größte Gefahr: TikTok zieht die Nutzer*innen sofort in eine bestimmte Bubble. Je mehr Videos jemand aus einem bestimmten Bereich ansieht, desto mehr bekommt er aus diesem Bereich angezeigt. Was bei niedlichen Katzen- und Tiervideos harmlos scheint, ist bei extremistischen Inhalten oder Verschwörungstheorien fatal.

Durch die „inhaltliche Verengung“ gerät man laut Stray immer weiter in den Sog hinein und ist anfällig für politische Radikalisierung. Der Algorithmus von TikTok ist nicht der einzige und erste, der das macht und diese Gefahr mit sich birgt. Auch Facebook und YouTube waren bereits dafür kritisiert worden, diese Tendenzen zu verstärken. Doch TikTok hat das Ganze zur Perfektion getrieben und ist daher deswegen noch gefährlicher.

Ein weiterer Punkt ist, dass TikTok vor allem von Kids und Jugendlichen genutzt wird. Diese ändern ihre Interessen aber noch weitaus häufiger als Erwachsene. Der Algorithmus kommt kaum mit der Entwicklung der Kids und Teenager mit und könnte sogar die Weiterentwicklung der Interessen behindern, wie eine Safer-Internet-Expertin im Gespräch mit der futurezone erklärt.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!