Netzpolitik

Twitter will Troll-Kommentare automatisiert blocken

Twitter will einen „Safety Mode“ einführen, um das Gesprächsklima unter den Twitter-Nutzer*innen zu verbessern. Im „Safety Mode“ sollen Accounts für sieben Tage geblockt werden, die Hasskommentare schreiben, oder Menschen mit unaufgeforderten Kommentaren nerven. Alle unwillkommenen Tweets sollen damit verschwinden, heißt es in einem Bericht von BBC.

Derzeit werde der „Safety Mode“ von einer kleinen Gruppe an Nutzer*innen getestet. Man müsse es in den Einstellungen bewusst aktivieren, heißt es weiters. Das System will Accounts erkennen, mit denen ein*e Nutzer*in häufig interagiert. Wer sich gegenseitig folgt, wird auch nicht automatisch geblockt.

Warum Twitter häufig daneben liegt

Eine Studie über Hassrede aus Finnland hat gezeigt, dass Twitter der „übelste der Tech-Giganten“ sei, wenn es um Hassrede geht. Viele Kommentare bleiben ungelöscht stehen, heißt es. Das liege daran, dass Twitter zwar viele Accounts vorübergehend sperrt, aber nur basierend auf einer automatisierten Moderation mittels KI. Diese würde bestimmte Begriffe blocken, heißt es im BBC-Bericht.

Das sei nicht genug, so Mari-Sanna Paukkeri, die KI-Systeme trainiert. Oft kommt es dadurch auch zu Sperren, die nicht nachvollziehbar sind. Das ist etwa zuletzt geschehen, als einige Twitter-Nutzer*innen sich auf die Häufung von Femiziden in Österreich mit dem Hashtag "Männer töten" aufmerksam machen wollten. Die Accounts wurden aufgrund des fehlenden Kontextes automatisiert gesperrt.

Ob sich diese Praxis durch den geplanten "Safety Mode" verbessert, bleibt abzuwarten.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!