Doku enthüllt, wie Gewalt und Rechtsextremismus auf Facebook online bleibt
Einem Channel 4-Journalisten ist es gelungen, sich bei Facebooks „Content Moderation“-Büro in Dublin (Irland) einzuschleusen. Er heuerte bei CPL Resources an, einer Agentur, die in Irland seit 2010 mit
Facebook zur Moderation und Löschung von Inhalten zusammenarbeitet. Schon während seines Trainings, welche Inhalte zu löschen seien und welche auf der Seite verbleiben dürfen, wurde der Journalist mit fragwürdigen Praktiken konfrontiert.
Die Doku wurde am Dienstag auf Channel 4 ausgestrahlt und sorgte danach im englischsprachigen Raum für großes Furore. Von „BBC“ bis zum „Guardian“ berichteten nahezu alle Medien davon. Zum einen hat der Journalist in Erfahrung bringen können, dass Gewalt, Rechtsextremismus und Inhalte von Kinder unter 13 nicht selten auf Facebook online bleiben. Manchmal, weil sie die „Gemeinschaftsstandards“ nicht verletzen, manchmal weil es Seiten betrifft, die „besonders viele Follower“ haben.
Facebook gibt Verstöße zu
Facebook selbst gab zu, dass vieles darunter gewesen sei, das gegen die eigenen Regeln verstoße und man sei derzeit dabei, die Fälle zu untersuchen, heißt es gegenüber BBC. Man gab Fehler zu und wolle die Belegschaft bei dem Facebook-Content-Zulieferer in
Irland „umtrainieren“, wie es Facebook selbst bezeichnet.
Konkret bekam der verdeckte Journalist bei CPL Resources zu hören, dass man nicht zu viel zensieren dürfe, denn sonst würden die Menschen das Interesse an der Plattform verlieren. „Es geht am Ende des Tages nur ums Geld.“ Ein Video, das seit 2012 auf Facebook kursiert, zeigt etwa zwei Teenager-Mädchen, die sich gegenseitig prügeln. Dieses Video wurde mehrfach gemeldet und es wurde erst offline genommen, als die Mutter eines der Kinder intervenierte. „Es war erniedrigend für mein Kind“, sagte die Mutter.
Was online bleibt, obwohl es das nicht dürfte
Neben Gewalt-Videos gab es auch einige Inhalte von rechtsextremen Gruppen, die trotz offensichtlicher Vergehen nicht offline genommen worden waren, obwohl sie die Gemeinschaftsstandards von Facebook verletzt hatten. So geschehen war das etwa bei der rechtsextremen Gruppe „Britain First“. Hassinhalte und Gewaltbilder der Seite blieben online.
Bei Inhalten von Seiten mit einem großen Publikum dürfen die Content-Moderatoren in Irland nämlich nicht alleine entscheiden, was online bleibt und was runtergenommen wird. Da gibt es sogenannte „Shielded Reviews“, die bei Facebook selbst durchgeführt werden. Gedacht war die Funktion ursprünglich für Medien-Seiten und staatliche Auftritte im Netz. Ein in der Doku gezeigtes Bild aus dem Jahr 2012 soll etwa einen Mann zeigen, der ein kleines Kind schlägt. Das Bild soll rund 44.000 Mal geteilt worden sein.
Doku auch von Berliner Filmemachern
Die Channel 4-Dokumentation ist ein weiterer Film über die Löschpraktiken beim größten sozialen Netzwerk der Welt. Mit „The Cleaners“ gab es dazu etwa eine weitere Doku. Die Berliner Filmemacher Hans Block und Moritz Riesewieck sprachen mit Menschen, die in der Löschfabrik von Facebook in Manila gearbeitet haben.
Vergangenes Jahr hatte Facebook Journalisten einen Zugang zum Löschzentrum von Avarto in Berlin gewährt. Viele der dortigen Angestellten, die täglich Gewalt, Hass, Pornografie und Enthauptungsvideos sichten müssen, sagten, dass sie der Job verändert habe. Auch damals recherchierten einigen Journalisten investigativ in dem Umfeld.
Auch in Österreich gab es bereits Vorfälle
Facebook will die in der Channel 4-Doku neu aufgebrachten Vorfälle zwar untersuchen. Den Vorwurf, dass man problematische Inhalte dulde, um damit Clicks und den Umsatz zu steigern, weist der Konzern allerdings zurück. Facebook steht jedoch wegen seiner zweifelhaften Löschpolitik bereits seit Jahren im Kreuzfeuer der Kritik.
In Österreich sorgte etwa ein Gewaltvideo auf Facebook für Aufsehen, das zeigte, wie ein 15-jähriges Mädchen von Gleichaltrigen brutal geschlagen worden war. Das Video wurde millionenfach angesehen, bevor es nach fast einer Woche doch noch von Facebook gelöscht wurde. Auf Druck des
Justizministeriums.