ARCHIV/ILLUSTRATION - Die Silhouette eines Mannes ist am 23.01.2012 in Hannover vor einem Computerbildschirm mit dem Logo des Online-Netzwerks Facebook zu sehen. Am Donnerstag äußert sich der rheinland-pfälzische Datenschutzbeauftragte Edgar Wagner in Mainz bei einer Pressekonferenz zu seinem Antwortverbot für die Facebook-Seite der Landesregierung. ..Foto: Julian Stratenschulte/dpa +++(c) dpa - Bildfunk+++
ARCHIV/ILLUSTRATION - Die Silhouette eines Mannes ist am 23.01.2012 in Hannover vor einem Computerbildschirm mit dem Logo des Online-Netzwerks Facebook zu sehen. Am Donnerstag äußert sich der rheinland-pfälzische Datenschutzbeauftragte Edgar Wagner in Mainz bei einer Pressekonferenz zu seinem Antwortverbot für die Facebook-Seite der Landesregierung. ..Foto: Julian Stratenschulte/dpa +++(c) dpa - Bildfunk+++
© dpa/Julian Stratenschulte

Postings

Einblicke in Facebooks private Löschkolonne in Berlin

„Dieser Beitrag verstößt nicht gegen die Gemeinschaftsstandards.“ Diesen Satz hat jeder schon einmal gelesen, der ein Hassposting oder Gewaltvideo auf Facebook gemeldet hat. Der Inhalt bleibt stehen, obwohl er verletzend oder gewaltverherrlichend ist. So hielt sich Mitte November etwa auch ein Gewaltvideo hartnäckig auf Facebook, das zeigte, wie ein 15-jähriges Mädchen von Gleichaltrigen brutal geschlagen worden war. Das Video wurde millionenfach angesehen, bevor es nach fast einer Woche doch noch von Facebook gelöscht wurde. Auf Druck des Justizministeriums.

Facebook wird für seine zweifelhafte Löschpolitik seit Monaten scharf kritisiert. Nun wurde dank Recherchen der Süddeutschen Zeitung und der Online-Plattform mobilegeeks.de erstmals bekannt, wie die Löschfarm bei Facebook tatsächlich arbeitet. Seit dem Aufflammen der ersten Kritik im Herbst 2015 kümmert sich in Berlin ein Team um die Sichtung des von Nutzern gemeldeten Materials.

Viele Aufträge, starker Druck

Rund 600 Mitarbeiter der Bertelsmann-Tochter Arvato sind für die Löschung der Beiträge im deutschsprachigen Raum verantwortlich. Sie plaudern nun trotz Geheimhaltungspflicht erstmals über ihren Job. „Man loggt sich ein, steuert eine Warteschlange an, wo sich Tausende gemeldete Beiträge stapeln, man klinkt sich ein, und los geht’s“, beschreibt ein Mitarbeiter seinen Arbeitsprozess. Für eine Entscheidung, was auf Facebook gelöscht wird und was nicht, bleiben den Mitarbeitern etwa acht Sekunden Zeit. Rund 1800 Aufträge pro Tag sollen dabei von einem Mitarbeiter abgearbeitet werden. Das erzeugt einen enormen Druck.

Facebook hat zudem genaue Regeln festgelegt, die alle Mitarbeiter befolgen müssen. So bleiben etwa Bilder von Erhängten online, selbst wenn beleidigende Kommentare wie „Hängt diesen Hurensohn“ daneben stehen. Die Begründung: Das Posting stellt eine erlaubte Befürwortung der Todesstrafe dar. Auch Enthauptungen waren bis vor kurzem nicht zu löschen, sowie Beschimpfungen gegen Migranten. Das Regelwerk wird aber laufend angepasst – auch eine Herausforderung für Mitarbeiter.

Flüchtlinge quasi geschützt

Flüchtlinge zählen jetzt etwa dank eines enormen, gesellschaftlichen Drucks und Aufforderungen seitens der Politik zu einer „quasi geschützten Gruppe“ und Beleidigungen werden jetzt häufiger gelöscht. Das gilt allerdings nicht für „Vermutungen“ und unklare Formulierungen. So werden etwa Benutzer, die sich unter „Hagen Kreuz“ registrieren und als Arbeitsplatz „KZ“ angeben, nicht gelöscht, weil es „auch ein echter Name und Arbeitsplatz sein könnte“, wie mobilegeeks.de berichtet. Viele Nutzer, die es gezielt darauf anlegen, haben also längst erkannt, wie man an den Löschregeln von Facebook vorbeikommt, auch wenn diese nicht transparent gemacht werden.

Psychische Belastungen

Die Mitarbeiter, die mit der Sichtung der Inhalte beschäftigt sind, entwickeln nicht selten psychische Probleme und haben mit posttraumatischen Belastungsstörungen zu tun. „Ein Video könnte reichen, um mein Leben zu zerstören. Das wusste ich“, schreibt einer der Mitarbeiter, der der Süddeutschen Zeitung sein Leid klagte. „Es ist eine zufällige Bildauswahl, was so aus der Warteschlange kommt. Tierquälerei, Hakenkreuze, Penisse.“ Eine Mitarbeiterin schildert: "Seit ich die Kinderpornovideos gesehen habe, könnte ich eigentlich Nonne werden - an Sex ist nicht mehr zu denken. Seit über einem Jahr kann ich mit meinem Partner nicht mehr intim werden." Von Arvato werden die Mitarbeiter mit ihren Problemen völlig alleine gelassen. Einzelgespräche mit Psychologen gibt es laut den Insider-Schilderungen nämlich keine.

Bei besonderen Ereignissen wie Terroranschlägen müssen die Mitarbeiter Extraschichten schieben. Manche umstrittenenen Beiträge, die es zu internationalen Berühmtheit schaffen, landen zudem bei einem eigenen Experten-Team in der Irland-Zentrale von Facebook, das am Ende die finale Entscheidung darüber trifft, ob etwas bleiben darf oder nicht.

Zusammenarbeit mit Behörden?

Die Firma Arvato beschäftigt übrigens insgesamt mehr als 70.000 Menschen und ist auch im Bereich Bonitätsprüfungen, Big Data im Gesundheitswesen zuständig plus: Die arvato AG ist Teil der Bertelsmann Gruppe und hat mit AZ Direkt ein Tochterunternehmen, das zu den größten Adresshändlern im deutschsprachigen Raum zählt. Die Einschulung, die man als Mitarbeiter bekommt, bevor man in Facebooks Löschkolonne arbeiten darf, dauert laut den Insidern maximal 14 Tage. Facebook selbst spricht von „mehreren Wochen“.

Ob die Mitarbeiter die Inhalte, die Rechtsverletzungen im jeweiligen Land darstellen, auch den jeweiligen Behörden melden, ist derzeit nicht bekannt. Facebook selbst will dazu keine Auskünfte erteilen und Arvato darf nicht. Das Facebook-Löschzentrum in Berlin entscheidet also, was Milliarden von Menschen jeden Tag sehen- und was nicht. Transparenz darüber gibt es weiterhin keine. Was dabei zurück bleibt: Ein unbefriedigendes Gefühl.

Warum sich deshalb immer mehr Journalisten von Facebook abwenden, lest ihr hier.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare