Facebook-Studie: "Das ist skandalös und nicht vertretbar"
Dieser Artikel ist älter als ein Jahr!
Wir sind alle Versuchskaninchen: Das dürften sich nun sehr viele Facebook-Nutzer denken. Am Wochenende wurde bekannt, dass das soziale Netzwerk den News Feed von insgesamt 689.003 Nutzern für ein Experiment manipuliert hat. Die Forscher wollten herausfinden, ob Emotionen wie Glück oder Depression über Facebook übertragen werden können. Das Ergebnis: Ja, es ist möglich. Die ethischen Vorgaben für so ein Experiment erfordern eigentlich das ausdrückliche Einverständnis der Nutzer. Die Nutzer wussten davon allerdings nichts. „Das ist skandalös und absolut nicht vertretbar“, sagt Medienpsychologe Peter Vitouch gegenüber der futurezone.
„Gruselige“ Studie
Über mehrere Wochen wurden den 689.003 Nutzern bestimmte Beiträge auf der Startseite von Facebook vorenthalten. Dazu analysierte Facebook drei Millionen Postings auf ihren Inhalt und kategorisierte sie als positiv oder negativ. Bekam ein Nutzer weniger positive Beiträge als zuvor angezeigt, produzierte dieser daraufhin mehr negative Beiträge. Der Effekt funktioniert in beide Richtungen: Wenn die Zahl der negativen Inhalte reduziert wurde, posteten auch sie eher Positives.
Das umstrittene Experiment fand bereits vor zwei Jahren statt, nun wurden die Ergebnisse veröffentlicht. Sowohl Facebook-Nutzer als auch Wissenschaftler zeigen sich empört. Das Experiment sei gruselig und mache aus den Nutzern Laborratten. In Großbritannien fordert der Abgeordnete Jim Sheridan sogar neue Gesetze gegen derartiges Vorgehen: „Ich bin besorgt, dass Facebook und andere Konzerne das Denken der Bevölkerung bei politischen und anderen Themen manipulieren könnte. Wenn sie auf diese Weise beeinflusst werden, sollten sie zumindest darüber Bescheid wissen.“
Facebook verteidigt
Einer der Autoren der Studie entschuldigte sich mittlerweile öffentlich. Er räumt Fehler bei der eigenen Informationspolitik ein, die Untersuchung sei aber gerechtfertigt gewesen. In der Studie wird unter anderem darauf verwiesen, dass die Nutzungsbedingungen von Facebook derartige Experimente zulassen. Zudem wurde das Projekt im Vorfeld von einer Ethik-Kommission geprüft. Die Daten werden laut Facebook anonymisiert.
„Es ist nicht witzig, wenn ich gezielt in eine negative Stimmung gebracht werde. Das greift deutlich in meine Lebensweise ein“, so Vitouch. „Wenn jemand eine Persönlichkeitsstörung hat, kann das der letzte Tropfen sein, der das Fass zum Überlaufen bringt.“ Bernad Batinic, Leiter des Instituts für Medienpsychologie in Linz, sieht hingegen kaum Gefahr für die Psyche der Nutzer, auch da der nachgewiesene Effekt gering sei. Er übt Kritik am Ausmaß des Experiments: „Das wäre auch mit einer deutlich kleineren Stichprobe möglich gewesen, ein paar Tausend User hätten gereicht.“
Nicht in Österreich
Facebook führt immer wieder derartige Untersuchungen durch, ein eigenes Team ist für die Zusammenarbeit mit Universitäten zuständig. Das soziale Netzwerk will so seinen Algorithmus, der im Hintergrund bestimmt, welche Beiträge angezeigt werden, verbessern. Nutzer in Österreich waren vom umstrittenen Experiment nicht betroffen, wie Facebook gegenüber der futurezone bestätigte. Es wurden lediglich Personen in den USA untersucht.
Für den Konsumentenschutz haben wir ein eigenes Ministerium, die Arbeiterkammer kümmert sich darum und kein Gesetz wird beschlossen, ohne die Auswirkungen für Konsumenten zu berücksichtigen. Das ist für die reale Welt effizient, hilft aber in der digitalen Welt, insbesondere in Gestalt der US-Riesen von Facebook bis Google, überhaupt nichts.
Eine üble Form von Manipulation wurde nun bei Facebook bekannt, wo alleine in Österreich 3,2 Millionen Österreicher miteinander vernetzt sind. In den USA hat Facebook einen Psycho-Test gemacht, wo Usern bewusst positive oder negative Meldungen zugespielt wurden. Dann wurde getestet wurde, ob sich dadurch die psychische Verfassung geändert hat. Ergebnis: Ja, Manipulationen dieser Art funktionieren.
In der Digitalwelt gibt es seit Jahren eine Weisheit, deren Konsequenzen wir endlich beherzigen sollten: "If you’re not paying for it, you’re not the customer, you’re the product." Alles, was kostenlos ist, macht aus uns Kunden nur Produkte, mit denen man spielen darf, die manipuliert werden. (Gilt auch für die reale Welt, wenn Gratiszeitungen schreiben, was die Werbung will.)
Die schöne neue Welt des freien Internets haben wir uns nicht so vorgestellt, sie ist aber auch nur ein beinhartes Geschäft. Wenn wir etwas auf Google suchen oder bei Amazon kaufen, dann werden wir oft durch die Werbung manipuliert, die am meisten zahlt. Dazu kommt, dass diese Konzerne oft Quasi-Monopole haben, die sie auch verteidigen. Der nächste, logische Schritt ist die politische Manipulation von uns Laborratten.
Nationale Behörden können sich dagegen nicht mehr wehren. Ein Auftrag an die neue EU-Kommission.
Die Freunde und abonnierten Fan-Seiten eines durchschnittlichen Facebook-Nutzers verfassen etwa 1500 Beiträge täglich. Nur einen Bruchteil davon bekommt man tatsächlich zu sehen. Ein Algorithmus bestimmt im Hintergrund, wie wichtig ein Beitrag für den Nutzer sein könnte. Unwichtige Beiträge werden ausgeblendet, wichtige Beiträge hervorgehoben.
Geheimer Algorithmus
Wie genau der Algorithmus funktioniert, ist unbekannt. „Das ist eine Art Black Box, wir wissen nicht, wie das funktioniert“, sagt Thomas Pleil, Professor für Public Relations an der Hochschule Darmstadt, zum KURIER. Vielen Usern sei auch nicht bewusst, dass ihr News Feed angepasst wird. Facebook hat in Dutzenden Studien das Verhalten seiner Nutzer untersucht und die Erkenntnisse in seinen Algorithmus einfließen lassen.
„Sie gehen dabei der Frage nach, wie man die eigenen Nutzer länger auf der Plattform halten kann“, so Pleil. Bei unwichtigen Beiträgen verlieren die Nutzer rasch das Interesse und suchen sich eine andere Beschäftigung. Der Algorithmus kann auch ausgetrickst werden, vor allem Fan-Seiten versuchen so mehr User zu erreichen: „Das ist ein Katz-und-Maus-Spiel. Sobald viele erahnen, wie der Algorithmus dahinter funktioniert, muss nachgebessert werden.“
Während die Anmeldung beim weltgrößten sozialen Netzwerk kostenlos ist, bezahlen die Nutzer dort mit Informationen, die sie von sich preisgeben. Anhand dieser Daten und des jeweiligen Nutzungsverhaltens weiß Facebook, wer welche Gewohnheiten und Vorlieben hat. Daran angepasst verkauft das soziale Netzwerk maßgeschneiderte Onlinewerbung, die perfekt zu den Interessen der einzelnen Benutzer passt. Diese personalisierten Anzeigen lässt sich die Werbebranche viel Geld kosten.
Erkaufte Reichweite
In der Vergangenheit hat Facebook die Architektur der Werbeeinschaltungen immer wieder „optimiert“, wie es heißt. Darunter fällt die Reduktion der Reichweite von gewissen Beiträgen. Postings von Unternehmen oder Marken erreichen also nur einen Bruchteil der Nutzer, die eine Facebook-Seite tatsächlich abonniert haben. Eine Modemarke zu „liken“, reicht also nicht aus, um all deren Beiträge angezeigt zu bekommen. Denn ob und wie oft ein Beitrag einer Fan-Seite aufscheint, entscheidet neben dem Algorithmus, wieviel Geld die Unternehmen in Werbung auf Facebook investieren.
Das soziale Netzwerk empfiehlt daher seinen Werbekunden, mehr Geld in die bezahlte Reichweitensteigerung zu investieren. Damit ließe sich die Zielgruppe maximieren und die Verbreitung von Nachrichten verbessern. Die Zeiten, in denen Facebook ein kostenloser Werbekanal für Unternehmen war, sind vorbei. Mit dem Börsengang im August 2012 sind Quartalsberichte an die Stelle von Innovationen getreten.
Gewinn verdreifacht
Diese Monetarisierungsstrategie gibt Mark Zuckerberg, Gründer und Erfinder von Facebook recht. Im ersten Quartal dieses Jahres schnellte der Umsatz im Vergleich zum Vorjahreszeitraum um 72 Prozent auf 2,5 Milliarden US-Dollar (1,8 Milliarden Euro) in die Höhe. Unter dem Strich verdreifachte sich der Gewinn auf 642 Millionen US-Dollar.
Kommentare