Digital Life
28.01.2019

Britischer Gesundheitsminister droht mit Social-Media-Verbot

Nach dem Suizid einer 14-Jährigen geraten Facebook, Instagram und Co. verstärkt in Großbritannien unter Druck.

Der britische Gesundheitsminister Matt Hancock droht Social-Media-Plattformen wie Instagram, Facebook und Pinterest mit Konsequenzen, sollten diese nicht härter gegen fragwürdige Inhalte vorgehen. Dazu zählen neben Strafen und höheren Steuern auch ein mögliches Verbot. „Wenn wir glauben, dass sie Dinge verweigern, die sie eigentlich tun sollten, dann können und müssen wir gesetzlich dagegen vorgehen“, so Hancock gegenüber der BBC. „Dort möchte ich aber nicht enden, denn diese Plattformen tun auch viel Gutes.“

Kritik an Umgang mit dem Thema Suizid

Auslöser der Debatte war der Fall der 14-jährigen Molly Russell, die 2017 Suizid beging. Die Familie von Russell begab sich nach ihrem Tod auf Ursachenforschung und entdeckte unter anderem fragwürdige Inhalte auf den Social-Media-Plattformen. Molly folgte offenbar zahlreichen Nutzern auf Instagram, die selbstverletzendes Verhalten, Depressionen sowie Suizid zelebrierten. „Ich habe keinen Zweifel daran, dass Instagram dabei geholfen hat, meine Tochter zu töten“, sagte Ian Russell, Mollys Vater, gegenüber der BBC und sorgte damit für eine Debatte im ganz Großbritannien.

Papyrus, eine NGO, die suizidgefährdeten Jugendlichen hilft, wurde nach dem Bericht von knapp 30 Familien kontaktiert, die ähnliches berichteten. Hancock richtete daraufhin einen öffentlichen Brief an US-Unternehmen wie Google, Snapchat, Twitter, Pinterest, Apple und Facebook, in dem er dazu aufrief, „dass es noch mehr Handlungsbedarf gibt“. 

Instagram will Vorgehen überdenken

„Es ist an der Zeit, dass Internet- und Social-Media-Anbieter einen Schritt nach vor machen und diese Inhalte ein für alle mal entfernen“, so Hancock. Facebook entschuldigte sich bereits im Vorfeld öffentlich für den Vorfall und betonte, dass derartige Inhalte keinen Platz auf der Plattform hätten. Instagram sagte, man arbeite mit Expertengruppen zusammen, die die Plattform bei dem Thema Suizid und selbstverletzenden Inhalten unterstützen. Statt „gewisse Inhalte zu entfernen“, wolle man lieber Menschen, die sich diese Inhalte ansehen, veröffentlichen oder damit interagieren direkt Hilfe anbieten. Die Facebook-Plattform wolle aber nun seine Richtlinien zu diesem Thema überdenken.