Instagram-Algorithmen empfehlen Pädophilen-Netzwerke
Die Algorithmen von Instagram setzen Pädophile miteinander in Verbindung, die über die Fotoplattform Inhalte über sexuellen Kindesmissbrauch in Auftrag geben und verkaufen. Das geht aus einer Untersuchung des Wall Street Journal (WSJ), der University of Stanford und der University of Massachusetts Amherst hervor.
Von den Forscher*innen ausfindig gemachte Konten wurden mit offensichtlichen Hashtags wie #pedowhore, #preteensex und #pedobait beworben. Diese bieten Menüs mit Inhalten an, welche Nutzer*innen kaufen können, darunter Videos von Selbstverletzung und Sodomie. Zum Teil können Interessierte sogar bestimmte Handlungen in Auftrag geben.
Flut aus Missbrauchsmaterial
Die Forscher*innen richteten ein Testkonto ein und riefen die von diesen Netzwerken geteilten Inhalte auf. Sofort wurden ihnen weitere Konten empfohlen, denen sie folgen sollten. „Die Befolgung nur einer Handvoll dieser Empfehlungen reichte aus, um einen Testaccount mit Inhalten zu überfluten, die Kinder sexualisieren“, schreibt das WSJ.
➤ Mehr lesen: Warum Instagram-Nutzer schneller Werbeartikel kaufen
Die Instagram-Mutter Meta hat Stellung zur Untersuchung bezogen und sagte, man würde eine interne Task Force einrichten, um die aufgeworfenen Probleme zu untersuchen. „Kinderausbeutung ist ein schreckliches Verbrechen“, so das Unternehmen. Meta suche laufend nach Möglichkeiten, sich aktiv gegen dieses Verhalten zu wehren.
27 Pädophilen-Netzwerke entfernt
Der Konzern wies darauf hin, dass allein im Jänner 490.000 Konten gelöscht wurden, welche gegen die Kindersicherheitsrichtlinien verstoßen hatten. In den vergangen 2 Jahren wurden zudem 27 Pädophilen-Netzwerke entfernt. Zusätzlich wurden laut Meta tausende Hashtags blockiert, die mit der Sexualisierung von Kindern in Zusammenhang standen.
Die Untersuchung ergab allerdings auch, dass die Moderation auf Instagram ebenfalls oft mangelhaft ist. So würden Nutzer*innen-Berichte über Kindesmissbrauchsmaterial häufig ignoriert oder zurückgewiesen.