12.12.2018

YouTube verbreitet Fake News über US-Schulmassaker

© Bild: Reuters/Jonathan Drake

Die Algorithmen von YouTube unterstützten die Verbreitung von Verschwörungstheorien um Opfer des Schulmassakers von Parkland.

Mitte Februar erschoss ein 19-Jähriger an seiner ehemaligen Schule in Parkland, Florida, 17 Personen. Auf YouTube tauchten dazu in den vergangenen Tagen mehrere Verschwörungstheorien zu einem der Überlebenden auf. Der 17-jährige David Hogg, der das Massaker überlebt hatte, soll ein Schauspieler sein, heißt es in dem Video. Hogg hatte sich nach dem Amoklauf öffentlich massiv für schärfere Waffengesetze eingesetzt.

Die Verschwörungstheoretiker hatten eine alte Videosequenz ausgegraben, wo Hogg letzten Sommer einem Journalisten ein Interview gegeben hatte. Das sei Beweis genug, dass er ein „bezahlter Schauspieler“ sei, der immer wieder medial auftrete, wenn es gerade erwünscht sei. Das Verschwörungsvideo wurde auf YouTube hochgeladen und verbreitete sich dort rasant.

Warum landete das Video dort?

Durch seine Beliebtheit bei den Usern landete es in der „Trending“-Section von YouTube und erfuhr so noch einmal weitere Verbreitung. Auch auf Facebook wurde das Video von zahlreichen Nutzern geteilt und daher tauchte es auch dort in der „Trending News“-Section auf. Sowohl YouTube als auch Facebook haben es mittlerweile vollständig von ihren Plattformen entfernt.

Damit zeigt sich erneut das Problem, dass sich Verschwörungstheorien auf Facebook und YouTube nach wie vor weiterverbreiten, obwohl beide Portale genau dies eindämmen wollen und akute Maßnahmen gegen die Verbreitung von Fake News angekündigt hatten.

„Business Insider“ hat bei YouTube nachgefragt und wollte wissen, wie dieses Video überhaupt im "News"-Bereich landen konnte. Laut einem YouTube-Vertreter lag das daran, dass das Video Teile eines offiziellen News-Clips beinhaltet hatte, das als „verlässliche Nachrichtenquelle“ abgespeichert war.  

„Das Video hätte niemals in der Trending-Section landen dürfen, unser System hat es falsch eingeordnet. Als wir den Fehler bemerkt haben, wurde es entfernt, weil es gegen unsere Richtlinien verstößt. Wir arbeiten daran, unser System weiter zu verbessern“, heißt es zudem. YouTube will seine Algorithmen jetzt so einstellen, dass Videos, die offizielle News-Quellen beinhalten, nicht automatisch unter den beliebten Videos landen können.

YouTube verweist auf Verbesserungen

YouTube kann seit 2017, als erste Maßnahmen angekündigt wurden, durchaus Erfolge im Kampf gegen Fake News vorweisen. Die Google-Tochter betont auch, dass es gerade für derartige Hoax-Videos rund um prominente Medienereignisse, eine eigene „Anti-Beleidiungs-Richtlinie“ eingeführt hat. Videos, die entsprechend geflaggt werden, werden von einem Team angesehen und entfernt. 2018 möchte YouTube diese Tools ausbauen und „schneller und effizienter“ machen, heißt es in einer Reaktion auf den aktuellen Vorfall.

Rund um den Amoklauf in Parkland tummelten sich auf YouTube noch zahlreiche weitere verschwörungstheoretisch angehauchte Video-Beiträge. Die meisten davon wurden mittlerweile wirklich gelöscht. Hogg war ins Visier von Ultra-Rechten gekommen, nachdem er sich für mehr Regulierung von Schusswaffen eingesetzt hatte.

Facebook gab sich, was eine Stellungnahme zu seiner aktuellen Strategie rund um die aktuellen Verschwörungsvideos rund um Hogg betraf, weniger offen. Man würde Hoax-Inhalte löschen, heißt es lediglich. „Bilder, die Opfer der Tragödie verhöhnen, sind schrecklich. Wir entfernen diese Inhalte von Facebook, sagte eine Sprecherin. Facebook hatte Anfang Jänner angekündigt, 10.000 neue Mitarbeiter einstellen zu wollen, damit die Nutzer besser vor Falschmeldungen geschützt werden.

Algorithmen entscheiden

Der aktuelle Fall zeigt einmal mehr auf, welche große Herausforderung Algorithmen, die von Nutzern geteilte Inhalte bevorzugen, darstellen. Denn wie aktuelle Studien bewiesen haben, wird ebendiese Funktionsweise gerne von einer Minderheit manipuliert, auch in Österreich. Der Mashable-Journalist Chris Taylor erachtet die Algorithmen von YouTube sogar als größeres Problem als es russische Trolle je sein könnten.