Science
30.06.2014

Facebook führte riesiges Psychologie-Experiment durch

Ohne das Wissen der User hat Facebook ein Psychologie-Experiment mit fast 700.000 Nutzern durchgeführt und dabei deren Newsfeed manipuliert. Facebook verteidigt sein Vorgehen.

Ziel des riesigen Psychologie-Experiments war es, herauszufinden ob Emotionen wie Glück oder Depression über das soziale Netzwerk auf Nutzer übertragen werden können. Dafür ist der Newsfeed-Algorithmus von 689.003 Nutzern so manipuliert worden, dass sich für die Dauer einer Woche die Anzahl von entweder positiven oder negativen Postings reduzierten.

Millionen Postings analysiert

In der kürzlich veröffentlichten Studie beschreiben die Wissenschafter das Ergebnis des Feldversuchs. Demnach hat sich aus der Analyse von drei Millionen Postings und über 122 Millionen Wörtern gezeigt, dass User, denen eine Zeit lang weniger positive Posts angezeigt wurden, sich dadurch beeinflussen ließen und selbst auch eher negative Beiträge produzierten. Dies funktionierte auch umgekehrt. Also wenn weniger Negatives die User erreichte, posteten die Nutzer ebenso eher Freudiges.

Übertragung ohne Kontakt

“Emotionale Zustände lassen sich durch emotionale Ansteckung auf andere übertragen, was dazu führt, dass Menschen unbewusst die selben Emotionen verspüren” schreiben die Studienautoren Adam Kramer, Jamie Guillory, and Jeffrey Hancock. “Wir liefern experimentelle Beweise dafür, dass emotionale Ansteckung auch ohne direkte Interaktion zwischen Menschen funktioniert.” Die Ergebnisse würde zeigen, dass sich die emotionalen Zustände von Social-Media-Kontakten auf die eigenen Gefühle auswirken.

Alles rechtens

Neben dem bemerkenswerten Ergebnis der Studie, wirft dieses Experimentieren auch ein Licht auf die AGBs von Facebook, die offenbar derartige Manipulation und Verwendung von Daten zulassen. In der Studie wird darauf hingewiesen, dass die Datenverwendungsregeln des sozialen Netzwerks ein solches Vorgehen zulassen. Die Newsfeeds werden ohnehin gefiltert, um die User nicht mit Informationen zu überflüten.

Kritik an der Aussagekraft der Studie

Da die Emotionen drei Millionen Einträge von einer Software ausgewertet wurden, brachte der Studie einiges an Kritik ein. Denn die Emotion, die hinter einer Aussage steckt per Wortanalyse zu klassifizieren, werfe Zweifel an der Aussagekraft der Studie auf. So verwies das Psychologie-Blog "Psych Central" auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen.

Finanzielle Unterstützung

Die ersten Berichte, dass das Experiment von der US-Army teilfinanziert wurde, sind widerrufen worden. Die Universität hat ihre diesbezügliche Aussendung korrigiert und schreibt, dass das Experiment keine externe Finanzierung erhalten hat.

Facebook verteidigt sein Vorgehen

Facebook hat das heftig kritisierte Psycho-Experiment verteidigt. Für das Online-Netzwerk sei es wichtig, zu verstehen, wie Mitglieder auf diverse Inhalte reagierten, erklärte Facebook in der Nacht auf Montag. „Wir überlegen vorsichtig, welche Forschung wir betreiben, und haben ein striktes internes Aufsichtsverfahren.“

Einer der Autoren der Studie erläuterte in einem Facebook-Eintrag, man habe überprüfen wollen, ob sich Menschen ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sehen. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von Freunden die Nutzer wiederum veranlassen könnten, Facebook zu meiden, schrieb Adam Kramer.

Er könne aber verstehen, dass die Studie bei einigen Menschen Sorgen ausgelöst habe, meinte Kramer. Er und seine Mitautoren bedauerten dies. „Wir haben unsere Motive in dem Papier nicht klargemacht“, räumte er ein. Rückblickend haben die Erkenntnisse der Studie die ausgelösten Ängste vielleicht nicht gerechtfertigt. Kramer erklärte, es sei die mindest mögliche Zahl von Nutzern für statistisch relevante Ergebnisse beteiligt gewesen. Seit dem Experiment Anfang 2012 sei auch die Aufsicht über solche Studien verbessert worden.

Nutzer aus Österreich nicht betroffen

Wie Facebook gegenüber der futurezone bestätigt, waren bei dem groß angelegten Experiment keine Nutzer aus Österreich betroffen. Es seien ausschließlich englischsprachige Postings von Usern in den USA analysiert worden, so Facebook.