Hass im Netz hat stark zugenommen.
Hass im Netz hat stark zugenommen.
© APA/dpa

Interview

"Aggression funktioniert im Netz ungaublich gut"

futurezone: Sie haben ein Buch über den Hass im Netz geschrieben. Wie schlimm ist die Situation?
Ingrid Brodnig:
In Zahlen ist das schwer zu messen. Es gibt aber ein paar Gradmesser. In den USA sagten 2014 vier von zehn Internetnutzern, dass sie Anfeindungen im Internet schon selbst erlebt haben, fand das Pew Research Center heraus. Laut dem vor kurzem veröffentlichten Report der Anti-Rassismus-Stelle Zara ist die Zahl der rassistischen Inhalte im Internet im vergangenen Jahr deutlich gestiegen. In vielen Foren ist eine sachliche und faire Diskussion zu Themen wie etwa Flüchtlingen nicht möglich. Die Emotionen sind deutlich hochgegangen. Das ist auch kein Wunder, denn polarisierende Debatten entzweien auch Im Internet.

Welche Rolle spielt das Internet bei solchen gesellschaftlichen Polarisierungen?
Es wäre falsch zu sagen, dass das Internet Hass auslöst, oder das Internet verantwortlich ist, wenn jemand bösartig schreibt. Das Netz treibt aber oft eine harte Diskussion mit an, es ist ein Katalysator. Da gibt es menschliche und technische Faktoren, die dazu führen, dass Debatten oft engleisen.

Und zwar?
Einer der wichtigsten Aspekte ist die sogenannte Unsichtbarkeit. Wenn Menschen online diskutieren, können sie sich nicht in die Augen schauen. Es gehen wichtige nonverbale Aspekte der Kommunikation verloren. Wenn ich jemanden als Schlampe oder Idiot bezeichne, sehe ich im Netz nicht, wie sehr ich die Person verletze. Das macht es leichter. Ein anderer Aspekt sind die digitalen Echokammern im Internet. Man kommuniziert vor allem mit Gleichgesinnten. Das wird auch vom Facebook-Algorithmus unterstützt, der mir oft speziell Informationen zeigt, die zu meiner Weltsicht passen.

Welche Folgen hat das?
Oft sind diese Echokammern praktisch, weil man über Themen, die einen interessieren, informiert werden möchte. Aber es besteht auch die Gefahr, dass sich Menschen in Richtung einer Radikalopposition zum Rest der Gesellschaft bewegen. Das geht soweit, dass sie die krudesten Verschwörungstheorien glauben und das Vertrauen in demokratische Institutionen verlieren. Diese Menschen sind für Medien, aber auch die Politik, nur noch schwer erreichbar.

Sie schreiben auch, dass es Rüpel im Web zu einfach haben. Warum?
Rabiate Nutzer, die allen ihre Meinung aufdrücken wollen, haben es sehr einfach. Ein Beispiel: Wenn ich etwa in einem Zeitungsforum hundert Mal poste, weil ich unbedingt gehört werden will, dann bin ich in der Regel hundert Mal an erste Stelle gereiht. Aggression funktioniert im Netz auch unglaublich gut. Es gibt eine Studie der Carnegie Mellon University, die herausgefunden hat, dass es für Postings mit Beleidigungen mehr Zuspruch gibt. In einer Zeit, in der Algorithmen Informationen sortieren, ist das problematisch. Algorithmen sehen diese Signale und blenden das für umso mehr Menschen ein. Wenn ich nuancierte poste, hab ich es schwerer, weil ich weniger Likes, weniger Feedback und auch weniger Aufmerksamkeit bekomme. Das ist ein Problem für eine demokratische Debatte.

Was kann man gegen Falschmeldungen tun? Helfen Richtigstellungen oder kommen die gar nicht an?
Es ist wichtig, dass Richtigstellungen erscheinen. Denn es gibt eine gesellschaftliche Mitte, die sie auch liest und davon abgehalten wird, solche Meldungen zu teilen. Es gibt jedoch Nutzer, die wird man damit nicht erreichen. Aber auch wenn man manche Leute inhaltlich nicht mehr überzeugen kann, kann man trotzdem versuchen, einen Konsens zu finden, indem man an Werte appelliert, auf die man sich mit ihnen einigen kann. Und bei ganz besonders üblen Lügengeschichten ist es sinnvoll, zu klagen.

Ab welchem Punkt sollte man sich juristisch wehren?
Die Antwort muss jeder für sich selbst finden. Es gibt zwei Gradmesser. Wenn man etwa über längere Zeit hinweg immer wieder von einem Nutzer angegangen wird, kann das durchaus den Tatbestand des Cybermobbings erfüllen. Aber auch wenn einzelne Attacken so verletzend sind, dass man sie nicht über sich ergehen lassen will.

Zum Beispiel?
Über die Chefin der Grünen, Eva Glawischnig, tauchten im vergangenen Sommer sehr viele falsche Behauptungen auf. Man sah ihr Bild und daneben war zu lesen, dass sie es in Ordnung fände, wenn Asylwerber Mädchen vergewaltigen würden. Das Schlimme ist, dass viele Nutzer das tatsächlich geglaubt haben. Sie gerieten in Rage, beschimpften Glawischnig und riefen dazu auf, ihr Gewalt anzutun. Man hat gesehen, dass solche Lügengeschichten einen Effekt erzielen. Wenn Leute ein Foto von einer Person und ein Zitat dazu sehen, halten es viele für authentisch. Die Grünen haben gesagt, es reicht, und haben gegen besonders heftige Nutzer Klagen eingebracht. Es gibt viele andere Beispiele, bei denen man das auch tun könnte. Es geht auch darum, eine rote Linie zu ziehen. In einer demokratischen Debatte sollten gewisse Untergriffe einfach nicht ok sein.

Was war die krudeste Falschmeldung, der Sie bei Ihren Recherchen begegnet sind?
Das waren Behauptungen rund um Schweden. In einigen rechten und islamfeindlichen Blogs ist es regelrecht ein Sport geworden, neue Behauptungen aufzustellen, wie schlimm angeblich das Leben in Skandinavien sei. Es wurde etwa behauptet, in Schweden sei ein Bürgerkrieg ausgebrochen. Ich hab das nachrecherchiert, um zu sehen, wie solche Behauptungen zustande kommen. Es schreibt ein islamfeindliches Blog vom anderen ab. Die ursprüngliche Quelle war ein Beitrag auf Russia Today, über eine Einrichtung für Asylwerber in Schweden, die angezündet wurde. Diese Tatsache wurde auf anderen Seiten zu einem Bürgerkrieg aufgeblasen. Es wurde so getan, als ob Schweden ein Land wäre, in dem Menschen nur noch in Angst leben würden. Es wird häufig auch behauptet, dass sich blonde Schwedinnen die Haare schwarz gefärbt hätten, damit sie nicht vergewaltigt würden. Das ist kruder Unsinn und so fern von der Realität, dass es beeindruckend ist.

Blockieren oder entfreunden Sie Feunde, die Hasspostings oder hetzerische Inhalte verbreiten?
Ich verstehe jeden, der andere Nutzer blockiert, wenn er bösartig attackiert oder verletzt wird. Aber ich empfehle, damit vorsichtig zu sein, weil dadurch keine Lösung gesucht sondern nur weggeschaut wird. Wenn ich in meinem Bekanntenkreis merke, dass jemand ganz anderer Meinung ist, finde ich das oft auch interessant und schau mir das an, auch wenn es mich ärgert. Ich glaube, dass es gut ist, wenn man sieht, was für Sichtweisen und auch was für Mechanismen es gibt. Das führt in Diskussionen auch dazu, dass man die eigene Meinung stärker hinterfragt.

Sie haben für Ihr Buch auch mit Leuten gesprochen, die im Netz harsch auftreten. Was treibt Hassposter an?
Der Großteil der harten und schroffen Wortmeldungen kommt von ganz normalen Menschen. Es gibt zwei Gruppen von Nutzern, die besonders problematisch sind. Das eine sind die Trolle, die darauf abzielen, Wut oder Leid bei Menschen hervorzurufen. Eine kanadische Studie hat herausgefunden, dass sieauffällig oft zu Sadismus neigen. Die andere Gruppe nenne ich Glaubenskrieger. Sie haben eine unbeirrbare Überzeugung. Man erkennt sie daran, dass sie gerne von der Wahrheit sprechen. Sie verhalten sich Andersdenkenden gegenüber sehr aggressiv.

Wie geht es Leuten, die ins Visier von Hasspostings geraten?
Viele Leute sagen, sie haben eine richtig dicke Haut bekommen. Sie lernen, vieles nicht mehr so nah an sich rankommen zu lassen. Mir behagt das überhaupt nicht. Denn ich möchte keine öffentliche Debatte haben, in der man als Frau jederzeit damit rechnen muss, als Schlampe bezeichnet zu werden. Es ist auch wichtig, sich Verbündete zu suchen. Man darf nicht alleine gelassen werden, denn viele Opfer glauben, dass sie von allen gehasst werden.

Facebook tut sich sehr schwer gegen Hasspostings vorzugehen, warum?
Es ist eine Kombination aus mehreren Faktoren. Für große IT-Unternehmen ist es schwierig damit umzugehen. Sie kommen aus der amerikanischen Kultur, die tatsächlich mehr zulässt und einen raueren Ton toleriert. Hasspostings sind auch eine Frage der Kosten. Es bräuchte wahrscheinlich sehr viele Moderatoren, um alles genau zu prüfen. Eine Wortmeldung müssen sich Moderatoren genau ansehen, wenn jemand nackte Brüste meldet, sieht man sie auf den ersten Blick. Es gibt auch Software, die das erkennt. Es ist schwieriger Hass zu filtern als nackte Brüste.

Was können Online-Medien tun?
Sehr viele Probleme, die wir in den sozialen Medien sehen, sehen wir auch in den Zeitungsforen. Die Moderation ist wichtig, damit eingegriffen werden kann, ehe der Ton total hart wird. Es gibt eine redaktionelle Verantwortung, digitale Diskussionsräume zu schaffen, wo Leser sich auch wohlfühlen und nicht das Gefühl haben, sie werden von anderen total niedergemacht.

Der Teenager Chat-Roboter Tay wurde deaktiviert, nachdem er auf Twitter zum Rassisten wurde
Ein Microsoft-Bot wurde vor kurzem auf Twitter innerhalb kürzester Zeit zum Rassisten und Nazi. Ist das ein Sittenbild des Internets im Jahr 2016?
Ich finde, es sagt viel über die allgemeine Wut aus, dass 15 Stunden ausreichen, dass ein harmloser Chat-Bot, der eigentlich wie ein junges Mädchen diskutieren sollte, zum Genozid aufruft. Rein technisch hätte das nicht passieren müssen – spezielle Software hätte verhindern können, dass Tay zur rassistischen Hassschleuder wird. Wir haben Lösungen und Ansätze, die man nutzen könnte, damit nicht alles entgleitet. Es besteht häufig eine Ignoranz für dieses Problem. Es wäre eine große Hilfe, wenn IT-Unternehmen bei jedem Produkt überlegen, wie sie mit dem Hass im Netz umgehen. Dann hätten wir bessere Werkzeuge in der Hand, um uns zu wehren. Es gibt diese Lösungen und es wäre sinnvoll, sie langsam anzuwenden.

Hat dir der Artikel gefallen? Jetzt teilen!

Patrick Dax

pdax

Kommt aus dem Team der “alten” ORF-Futurezone. Beschäftigt sich schwerpunktmäßig mit Innovationen, Start-ups, Urheberrecht, Netzpolitik und Medien. Kinder und Tiere behandelt er gut.

mehr lesen
Patrick Dax

Kommentare