Facebook lockert den Datenschutz und verfolgt seine Nutzer nun auf Schritt und Tritt
Facebook lockert den Datenschutz und verfolgt seine Nutzer nun auf Schritt und Tritt
© APA/dpa-Zentralbild/Jens Büttner

Filterblase

Facebook-Nutzer schränken Informationsvielfalt selbst ein

Eine aktuelle Studie, die im Wissenschaftsmagazin Science erscheint, geht der Frage nach, inwieweit die Algorithmen der sozialen Netzwerke eine so genannte Filterblase erzeugen. Denn von vielen Seiten steht der Vorwurf im Raum, die gefilterten Nachrichten-Streams würden die Sichtweisen der Nutzer einschränken und sie auf diese Weise in ihrem bestehenden Weltbild bestätigen.

Forscher um Eytan Bakshy von der University of Michigan kamen nun zu dem Ergebnis, dass sich Facebook-Nutzer selbst stärker einschränken und Informationen weit mehr selektieren, als die Algorithmen von Facebook dies tun.

An dieser Stelle ist jedoch festzuhalten, dass die Wissenschafter für das soziale Netzwerk tätig sind und diese Studie im Auftrag von Facebook erstellt haben.

Filterblase sei individuelle Entscheidung

Die Forscher analysierten sechs Monate lang das Verhalten von mehr als zehn Millionen Facebook-Nutzern in den USA. Sie untersuchten, welche von Freunden geposteten Inhalte bei den Nutzern ankamen und hielten außerdem fest, welche Inhalte von den Nutzern tatsächlich angeschaut wurden. Das Ergebnis: 15 Prozent der Informationen, die nicht dem Weltbild der Nutzer entsprachen, wurden von Facebook aussortiert. 70 Prozent der Inhalte, die eine gegenteilige Meinung vertraten und trotzdem bei den Nutzern ankamen, wurden jedoch von ihnen selbst ignoriert.

Der Studie zufolge erzeugen die Facebook-Algorithmen also durchaus eine politische Verzerrung, allerdings fällt diese kleiner aus als vermutet. Dass User häufiger auf Quellen klicken, die ihrer politischen Überzeugung entsprechen, seien individuelle Entscheidungen und nicht primär die Folge der Sortier-Algorithmen.

Menschen kontroverse Themen vorzuenthalten, sei eine Gefahr für die Demokratie, schrieben die Forscher. Diese Gefahr sei in sozialen Netzwerken jedoch weit weniger ausgeprägt als beispielsweise beim Lesen von Blogs. Welche Informationen sie bekämen und anschauten, hätten die Nutzer von Facebook schließlich offenbar in erster Linie selbst in der Hand.

Kritik an der Studie

Da die Autoren der Studie im Auftrag von Facebook arbeiten, hat das Science-Magazin der Studie einen Gastbeitrag von David Lazer von der Harvard und Northeastern University zur Seite gestellt. Lazer zweifelt die Schlüsse der Studie zwar nicht an, kritisiert allerdings, dass die einzigen Leute die Facebook und seine gesellschaftlichen Auswirkungen erforschen können, Forscher von Facebook selbst sind. Da dies für die wissenschaftlichen Erkenntnisse negative Auswirkungen haben könnte, plädiert er für mehr unabhängige Forschung mit den Datensätzen von Facebook.

Lazer schreibt: "Die wichtigste Erkenntnis der Studie ist jedoch, dass eine Notwendigkeit besteht, ein neues wissenschaftliches Feld zu erschaffen, das die sozialen Algorithmen und deren gesamtgesellschaftliches Zusammenspiel untersucht."

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare