BANGLADESH-NZEALAND-ATTACK-MOSQUE
© APA/AFP/MUNIR UZ ZAMAN / MUNIR UZ ZAMAN

Digital Life

Terror im Live-Stream wirft Fragen auf

Auf den ersten Blick könnte man die Aufnahme für eine Szene aus einem Videospiel halten. Aus der Helmkameraperspektive gefilmt betritt ein bewaffneter Mann eine Moschee und eröffnet wahllos das Feuer auf die anwesenden Gläubigen. Das Video ist echt, es zeigt den verabscheuungswürdigen Terrorakt eines Mannes  in der neuseeländischen Stadt Christchurch. Der Täter hat seinen Massenmord am frühen Freitagnachmittag (ortszeit) 17 Minuten lang live via Facebook ins Internet gestreamt. Zehn Minuten zuvor wurde die Tat auf der Internetplattform  „8Chan“ über ein anonymes Konto angekündigt. „Ich werde die Invasoren angreifen, und ich werde den Angriff auf Facebook live streamen“, hieß es in dem Posting. Ein ebenfalls online veröffentlichtes Manifest, das dem Täter zugeordnet wird, lässt auf einen rechtsextremen Hintergrund der Tat schließen.

Facebook reagierte, nachdem die neuseeländische Polizei das Video gemeldet hatte, und löschte die Aufnahme. Sie war aber zumindest für die 17 Minuten der Live-Übertragung  einsehbar.  Das Video wurde vor der Löschung bereits auf anderen Plattformen weiterverbreitet und ist trotz Bemühungen der Polizei weiterhin auffindbar. Der neuseeländische Rechtsprofessor Alexander Gillespie von der Universität Waikato in Neuseeland warnte umgehend, dass die Verbreitung des Materials Nachahmungstäter anstiften könne.  Zahlreiche  Zeitungen und Online-Medien zeigten trotzdem Standbilder und kurze Ausschnitte aus dem Video  und verstärken so  die virale Verbreitung der terroristischen Inhalte.

Kein Einzelfall

Es ist nicht das erste Mal, dass grausige Gewalttaten im Netz in Echtzeit mitverfolgt werden können. Im August 2018 wurde ein Amoklauf bei einem Videospielturnier in Florida  live gestreamt. Auch für Facebook ist das Thema nicht neu. Mehrere Morde, Vergewaltigungen und andere Gewaltverbrechen wurden schon auf der Plattform live übertragen. Die Anbieter verdienen über Werbeeinschaltungen mit Livestreams viel Geld. Die Inhalte werden durch automatisierte Systeme oder menschliche Moderatorengeprüft. Proaktiv sind diese Filtermechanismen aber nicht. Erst wenn eine Aufnahme als bedenklich gemeldet wird, greifen die Kontrollmaßnahmen. Obwohl Facebook und andere Plattformen stets betonen, dass ihre Algorithmen und menschlichen Prüfer enorme Mengen an bedenklichen Inhalten von den Plattformen abhalten, zeigt der aktuelle Fall, dass dieser Ansatz gerade bei Liveaufnahmen schnell an Grenzen stößt. Die EU plant etwa derzeit, Plattformbetreibern für die Lösung von terroristischen Inhalten eine Frist von einer Stunde nach Meldung durch eine Behörde einzuräumen.

Die Zahl der hochgeladenen Aufnahmen ist massiv. In den dunklen Ecken des Netzes finden sich bedenkliche Aufnahmen auch Jahre, nachdem sie von großen Plattformen entfernt wurden. Dass Videos von abscheulichen Taten im Netz auftauchen, lässt sich kaum verhindern. Wenn sich keine Plattform findet, könnten Inhalte auch über private Server ihren Weg ins Netzwerk finden. Liegt ein Video erst einmal auf irgendeinem Server, ist es ein Leichtes, den Link über andere Plattformen weiterzuverbreiten. Diese robuste Art der Verteilung von Inhalten im Netz hat in anderen Bereichen auch ihre guten Seiten. Aufnahmen von Polizeibrutalität und anderen Schikanen durch Behörden können so auch unter repressiven politischen Bedingungen verbreitet werden.

Facebook hat im aktuellen Fall gleich nach der Meldung reagiert und damit seine rechtlichen Verpflichtung erfüllt: Plattformen haften nicht für hochgeladenen Inhalte, wenn sie auf Beschwerden angemessen reagieren. Die Weiterverbreitung erfolgte dann vorrangig über kaum kontrollierte Nischenplattformen wie 8chan oder 4chan. Allerdings wurde das Video auch über Facebook, Twitter, YouTube und Co verlinkt. Erst die Einbindung auf reichweitenstarken Plattformen hat zu einer breitflächigeren Verteilung  geführt. Hier müssen sich die sozialen Netzwerke - genau wie klassische Medien - die Frage gefallen lassen, ob diese indirekte Weiterverbreitung  nicht den Terroristen in die Hände spielt.   Der politische Druck auf Online-Plattformen, hier bessere Filter zu installieren, wächst international. Fake News, Gewalt, Rachepornos und Terroristeninhalte sind die Problemkategorien, die aktuell  diskutiert werden.

Hat dir der Artikel gefallen? Jetzt teilen!

Markus Keßler

mehr lesen
Markus Keßler

Kommentare