Facebook-Whistleblowerin will, dass Mark Zuckerberg haftet
„Ich bin hier, weil ich darüber sprechen möchte, wie Facebook unseren Kindern Schaden zufügt und unsere Demokratie gefährdet“, sagte Frances Haugen am Montag in Brüssel. Die US-Whistleblowerin war nach Europa gereist, um dort mit einem Ausschuss des EU-Parlaments drei Stunden lang ihre Erkenntnisse, die sie aus dem Inneren des US-Monopolisten erlangt hatte, zu teilen. Fast alle EU-Abgeordneten, die der Whistleblowerin Fragen stellten, dankten ihr für ihren Mut, sich einem Großkonzern wie Facebook in die Quere zu stellen.
Zwei Jahre und fünf Monate war die ehemalige Produktmanagerin bei Facebook beschäftigt gewesen. Sie hatte in der Abteilung für gesellschaftliche Integrität unter anderem daran gearbeitet, Manipulationsversuche bei Wahlen zu verhindern und aus dem Inneren heraus versucht, den US-Konzern zu verändern. Doch dann ging sie an die Öffentlichkeit.
Vorschläge für eine EU-Regulierung
„Wir brauchen neue Gesetze, um Unternehmen wie Facebook wieder sicherer zu machen und die EU könnte hier ein großes Vorbild sein“, so die Whistelblowerin, die in einer Artikelserie mit der Washington Post die sogenannten „Facebook Files“ enthüllt hatte. Konkret spielt sie dabei auf den „Digital Services Act“ (DSA) an, mit dem zentrale Weichen für die Zukunft des Internets gestellt werden sollen. Es geht darin darum, wie viel Macht die großen Konzerne behalten sollen.
„Das Gesetz für digitale Dienste habe das Potenzial, globale Maßstäbe zu setzen – auch für andere Länder der Welt wie die USA.“ Dafür müsse das Gesetz allerdings stark formuliert und konsequent umgesetzt werden. Dazu zählt sie halbjährliche Risikoanalysen, die Online-Firmen zu ihren Diensten erstellen müssten - und zu denen Regulierungsbehörden unabhängige Einschätzungen einholen sollten.
Behörde in Europa, aber nicht in Irland
Haugen kritisierte zudem, dass nur Facebook alleine weiß, wie der Newsfeed der Nutzer*innen zustande kommt. Haugen forderte vor dem EU-Parlament, dass unabhängigen Forscher*innen, Expert*innen und Regulierungsbehörden Zugang gewährt wird und der Algorithmus dadurch transparenter werden soll. Laut Haugen soll dazu eine externe Regulierungsbehörde geschaffen werden, die allerdings nicht zwingend in Irland sitzen muss.
„Irland steht massiv unter Druck und trägt bereits große Verantwortung mit dem Spannungsfeld, dass sich viele Tech-Konzerne in Irland angesiedelt haben und den Aufgaben der dortigen Datenschutzbehörde“, sagt Haugen. „Die externe Regulierungsbehörde sollte aber schon irgendwo in Europa sein“, so die Whistleblowerin.
Dieser Behörde sollten auch die Algorithmen von Facebook offengelegt werden, etwa welche Inhalte präferiert werden. Laut Haugen wäre es wichtig, dass der Algorithmus der Dienste keine reine Black Box mehr ist. Haugen ist außerdem klar, dass es eine „stufenweise Regulierung der Algorithmen“ geben müsse – für einen Konzern wie Facebook müssten andere Maßstäbe gelten als für ein Start-up, das im selben Bereich eine Tätigkeit aufnehmen möchte.
Für die Whistleblowerin ist es am schlimmsten, dass Facebook, das sich neuerdings „Meta“ nennt, viele seiner Versäumnisse gekannt, aber nicht darauf reagiert hat. „Facebook hat der Öffentlichkeit absichtlich wichtige Daten vorenthalten“, sagt Haugen. „Facebook hat außerdem das Profitstreben über die Sicherheit der Nutzer gestellt.“ Dabei nutzen 2,81 Milliarden Menschen einen der Dienste aus dem Meta-Imperium, als Facebook, Instagram oder WhatsApp, täglich.
Instagram und Algorithmus
Vor allem jüngeren Menschen, die den beliebten Fotodienst Instagram nutzen, sind betroffen. Wissenschafter*innen hatten in einer internen Studie herausgefunden, dass die Nutzung von Instagram bei 32 Prozent der Teenager die eigenen Probleme, die sie mit ihrem Körper haben, verschlimmert. Facebook hat, so Haugen, davon gewusst, diese Erkenntnisse aber absichtlich verschwiegen.
Haugen hält es für technisch und gesellschaftlich möglich, dass die Algorithmen so angepasst werden, dass dies nicht mehr geschieht, wie sie dem EU-Parlament sagt. Das müsse allerdings transparent geschehen. „Nicht nur Forscher*innen dürfen auf diese Daten Zugriff bekommen, sondern eine breitere Gruppe an Expert*innen“, sagte Haugen.
Ein weiterer Punkt aus den Facebook Files, der große Wellen geschlagen hat, war jener der das Herzstück des Facebook-Imperiums betrifft: den Algorithmus. Dieser ist dafür verantwortlich, welche Inhalte Nutzer*innen zu Gesicht bekommen. Im Jahr 2018 hatte Facebook Änderungen am Algorithmus vorgenommen. Danach wurden Inhalte gefördert, die Emotionen hervorriefen – und zwar vor allem negative, etwa Wut.
Geschäftsleitung sollte haften
Das Klima auf Facebook veränderte sich. Laut Haugen soll Unternehmenschef Mark Zuckerberg die Auswirkungen bewusst in Kauf genommen haben. Ein Problem sei hier auch, dass niemand bei Facebook die Verantwortung für die Änderungen übernommen hat. „Es braucht hier Personen, die für bestimmte Entwicklungen die Haftung übernehmen“, schlug Haugen vor. Das ist etwa ein Punkt, der auch im europäischen Gesetz geregelt werden sollte. „Facebook ist für die größten Risiken unserer Gesellschaft verantwortlich. Hierfür muss jemand die Verantwortung übernehmen.“
Es reiche nicht, wenn sich Facebook nach jedem Skandal hinstelle und „tut uns leid, wir arbeiten daran“, sage, so Haugen. „Die Probleme müssen von Anfang an vermieden werden, nicht erst dann behoben, wenn sie bereits entstanden sind“, so Haugen. Wenn die Entwicklungen nicht auf konkrete Personen rückführbar seien, müsse eben alternativ die Geschäftsleitung haften.
Man brauche „systematische Änderungen“, sagte Haugen. Die Umbenennung des Konzerns in „Meta“ sieht die Whistleblowerin hingegen kritisch. Statt mehr Geld und Ressourcen in die Entwicklung von Videospielen zu stecken, hätte Facebook diese Summe in die Sicherheit der bestehenden Plattformen stecken sollen. „Die Tatsache, dass Facebook sich 10 000 Entwickler für Videospiele leistet, aber nicht für Sicherheitssysteme, zeugt meiner Meinung nach von einer eklatanten Führungsschwäche“, so Haugen.
Automatisierte KI ist nicht die Lösung
Haugen warnte außerdem davor, großflächig automatisierte Künstliche Intelligenz (KI) für die Moderation von Inhalten einzusetzen. Man habe in der Vergangenheit gesehen, dass das in manchen Ländern der Welt aufgrund von Sprachschwierigkeiten nicht gut funktionieren würde. Außerdem sei es nicht von Vorteil, wenn bestimmte Inhalte ganz von der Plattform verschwinden würden. Sie sei daher nicht für ein Verbot sowie automatisierte Löschung durch eine KI. Dadurch würden auch zu häufig wertvolle, legale Inhalte verschwinden.
Neben einer starken Regulierung durch EU-Behörden bräuchte Facebook also vor allem eines: mehr Mitarbeiter*innen, die mehr Verantwortung übernehmen. Haugen richtete eindringliche Worte an die EU-Parlamentarier. Jetzt bleibt abzuwarten, wie viel von den Vorschlägen in das entsprechende DSA-Gesetz noch aufgenommen werden. Dieses ist in seiner bisherigen Entwurfsversion nämlich eher handzahm. Laut Experten von der „Digitalen Gesellschaft“, einer Organisation, die sich für digitale Bürgerrechte einsetzt, gehen die geplanten Maßnahmen nicht weit genug. Es sei keine umfassende Transparenz der Empfehlungsalgorithmen geplant, wie sie Haugen vorschlägt.