© APA - Austria Presse Agentur

Netzpolitik
10/10/2019

Terror auf Twitch: Wieso das Attentat von Halle live gestreamt werden konnte

Der Attentäter von Halle konnte 35 Minuten lang seine Tat live übertragen. Nach 30 Minuten wurde das Video gelöscht.

von Franziska Bechtold

Die Helmkamera von Stephan B. hat alles festgehalten: Seine rechtsextreme Rede auf Englisch und Deutsch und die tödlichen Schüsse auf Passanten. Er streamte seine Tat live auf der Plattform Twitch, die normalerweise Künstler und Gamer für ihre Inhalte nutzen. Der Livestream lief 35 Minuten, und wurde von etwa 5 Personen live verfolgt. Nach 30 Minuten entfernte Twitch das Video und meldete sich anschließend mit einem Statement auf Twitter zu Wort. 

2200 Mal angesehen

Dort schreibt das Unternehmen, es arbeite mit größter Mühe daran, “solche Inhalte” zu entfernen und würde Accounts umgehend sperren, die das Video erneut verbreiten. Die Videoaufnahme sei “automatisch generiert” worden und innerhalb der 30 Minuten, bevor sie gelöscht wurde, zirka 2200 Mal angesehen worden. Der Account von Stephan B. sei zwei Monate vor der Tat erstellt worden und es habe vor dem Attentat einen weiteren Versuch gegeben, ein Video zu streamen. Das Video der Tat sei weder in Empfehlungen, noch in einem Verzeichnis aufgetaucht, wohl aber “koordiniert” über andere Plattformen geteilt worden. Man habe den Hashwert, mit dem Inhalte des Videos schnell identifiziert werden können, mit anderen Plattformen geteilt, um die weitere Verbreitung zu verhindern.

Koordinierte Verbreitung

Medienberichte unterstützen die Annahme, dass bereits wenige Minuten nach Start des Live-Streams Links zum Video in mindestens 10 einschlägig rechtsradikalen Telegram-Gruppen auftauchen. Die amerikanische Extremismus-Expertin Megan Squire veröffentlichte auf Twitter eine Grafik die zeigt, wie sich zwei Versionen des Videos innerhalb von 30 Minuten über Telegram verbreitet haben. Sie identifiziert zwei Videoquellen, eine kurze und eine längere. Beide Videos wurden über mehrere Kanäle verbreitet und hätten so eine Reichweite von 15.625 Accounts. Darüber hinaus seien mindestens drei Manifeste des Attentäters über die Telegram Channel geteilt worden. Das Video tauchte als Download-Link auf Seiten wie 4Chan auf. 

Inhalte werden aktiv gelöscht

Die Gruppe “Global Internet Forum to Counter Terrorism”, der Social Media Plattformen wie Facebook, Twitter und Youtube angehören - schrieb in einem Statement, man arbeite aktiv daran, das Video, Inhalte aus dem Video und Inhalte die mit dem Attentat in Verbindung stehen aus ihren Netzwerken zu entfernen. Man stehe in engem Austausch um die Verbreitung extremistischer und Gewalt enthaltender Inhalte zu verhindern.

Bereits nach dem Attentat von Christchurch, bei dem 51 Menschen getötet wurden, geriet die Möglichkeit, alles live über große Plattformen streamen zu können, in die Kritik. Damals hatte der Täter Facebook Live Streams genutzt, das Video ging 17 Minuten lang und auch hier wurden Kopien des Videos auf Seiten wie 4chan verbreitet. Das Unternehmen gab anschließen an, mit 150.000 Moderatoren weltweit zu arbeiten, die Inhalte so gut es geht prüfen.

Streamen für alle möglich

Auf Twitch zu streamen hat keine Einstiegshürde. Nutzer legen mit einer gültigen E-Mail-Adresse einen Account an, bestätigen dass sie die Nutzungsrichtlinien, die Datenschutzrichtlinien und die Community-Richtlinien gelesen und verstanden haben und damit einverstanden sind. Danach muss die Software oder Hardware, mit der gestreamt wird, über einen Code mit Twitch verbunden werden. Sind diese Grundlagen geschaffen, kann man jederzeit einen Livestream starten.

Die Community-Richtlinien heißen aus gutem Grund so, denn sie werden von den Nutzern auf Twitch durchgesetzt. Wer verbotene Inhalte sieht, meldet sie an Twitch. Dort wird der betroffene Kanal kontrolliert und, wie im Fall von Stephan B., gelöscht. Die Richtlinien verbieten jede Form von Gewalt und Anstiftung zur Gewalt - nur muss erst jemand diese verbotenen Inhalte melden, bevor die Plattform mit Löschung reagiert.

EU-Richtlinie

Die EU diskutiert bereits über Methoden, solche Inhalte aus dem Internet fernzuhalten. Teil davon ist ein Verordnungsentwurf, nach dem Anbieter innerhalb von 60 Minuten nach Veröffentlichung eines Videos reagieren müssen, Uploadfilter spielen dabei jedoch keine Rolle. Mit dem Pflegen von Hash-Datenbanken wurde diese Verordnung auf freiwilliger Basis mit den großen Unternehmen wie Facebook, Google, Microsoft und Twitter bereits umgesetzt. Zusätzlich vereinbarte man ein EU-Krisenprotokoll, dass koordinierte und rasche Reaktionen sowie die Zusammenarbeit von öffentlichem und privatem Sektor vorsieht. Es wurde aufgrund des Attentats in Christchurch verfasst.