FILE PHOTO: Facebook logo is displayed through broken glass in this illustration

© REUTERS / DADO RUVIC

Digital Life

Neuer Leak: Facebook hat große Probleme mit gefährlichen Inhalten

Die schlechten Nachrichten für den Social-Media-Riesen Facebook hören nicht auf. Berichten der New York Times und des Wall Street Journal zufolge soll der Konzern ein massives Problem mit Falschinformationen, nationalistischen und gewalttätigen Inhalten haben.

Ein Facebook-Forscher hatte 2019 einen neuen Account als eine Person erstellt, die in der indischen Stadt Kerala lebt. 3 Wochen lang klickte er sich durch vorgeschlagene Gruppen, Seiten und Videos. Dabei fand er heraus, dass der Algorithmus ihm schnell Hassrede, Fake News und gewaltverherrlichende Inhalte präsentierte. Das sollen neue interne Dokumente von Facebook belegen, die der NYT und dem WSJ vorliegen.

Bilder von toten Menschen

Im Bericht heißt es: "Beim verfolgen des News Feeds dieses Testnutzers habe ich in den vergangenen 3 Wochen mehr Bilder von toten Menschen gesehen als in meinem ganzen Leben zuvor".

In den USA zeigte sich 2019 bei einem ähnlichen Projekt wie in Indien, dass auch dort der Algorithmus fragwürdige Inhalte bevorzugt. Mit dem Test-Profil der "konservativen Mum Carol Smith" aus North Carolina klickten sich Facebook-Forscher*innen durch den News Feed. Innerhalb von 2 Tagen wurden Gruppen vorgeschlagen, die den Verschwörungsmystikern QAnon gewidmet waren. Wie NBC berichtet, nannte Facebook das Experiment in internen Dokumenten "Carols Reise zu QAnon". So seien Nutzer*innen in gefährliche "Rabbit Holes" und Filterblasen gedrängt worden.

Kampf gegen Fake-News hauptsächlich in den USA

Die Dokumente, die an mehrere Nachrichtenportale gesendet wurden, gehören zu den "Facebook Papers", die von der Whistleblowerin Frances Haugen veröffentlicht wurden. Sie enthalten auch Informationen dazu, dass Facebook seine Ressourcen im Kampf gegen Falschinformationen hauptsächlich in den USA nutzt. Dem Rest der Welt blieben nur 13 Prozent des globalen Budgets für den Kampf gegen Fake News.

Ein weiteres Beispiel dafür ist laut Bericht Myanmar. Hier wurden kurzzeitig die Ressourcen während der Wahl verstärkt. Obwohl Fake-News-Posts so um fast 50 Prozent reduziert wurden, fuhr man die Bemühungen nach der Wahl wieder herunter. 3 Monate später kam es zu einem gewaltsamen Militär-Putsch. Facebook reagierte erneut und verbannte das Militär von Facebook und Instagram und führte schärfere Regeln gegen gewaltsame Inhalte ein. 

Facebook verteidigt sich

Facebook hat sich bisher verteidigend zu den Facebook Papers geäußert. Sie seien irreführend und würden ein falsches Bild des Unternehmens zeichnen. Zu dem Bericht über Indien sagt das Unternehmen, man habe dort zusätzliche Ressourcen in den Kampf gegen Hassrede gesteckt.

Insgesamt habe man in diesem Jahr die Zahl der Hass-Postings weltweit um 50 Prozent reduziert. Solche Forschungsprojekte, wie auch jenes der Userin "Carol", würden durchgeführt, um besser gegen gefährliche Inhalte vorzugehen.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare