Jana Lasser

Jana Lasser

© Universität Graz/Kommunikation

Interview

Social Media: "Gefahr für Demokratien ist nicht zu vernachlässigen"

Die Wissenschaftlerin Jana Lasser forscht zu "alternativem" Einsatz von Algorithmen

Social-Media-Algorithmen auf Plattformen wie Facebook, Instagram, X und insbesondere TikTok sorgen regelmäßig für Debatten. Nutzerinnen und Nutzer geraten teils in eng gestrickte Filterblasen und die Plattformen und ihre Funktionsweisen werden immer stärker dazu genutzt, Menschen ideologisch zu radikalisieren.

Gleichzeitig machen überbordende Algorithmen die Timelines immer unübersichtlicher und im Inhalt auch irrelevant für die User. Jana Lasser, Algorithmus-Forscherin an der Uni Graz, erklärt die Problematik und wie es anders gehen könnte. 

futurezone: Beginnen wir mit einer etwas zugespitzten Frage: Haben Algorithmen Social Media zerstört?
Jana Lasser: Ganz zugespitzt geantwortet, würde ich sagen: Ja. Zumindest die, die gerade laufen.

Was sind aus Ihrer Sicht die größten Probleme auf den dominierenden Social-Media-Plattformen, die mit dem dortigen Einsatz von Algorithmen einhergehen?
Die aktuell auf allen Social-Media-Plattformen zum Einsatz kommenden Algorithmen haben ein großes Ziel, nämlich die Aktivität von Nutzern und Nutzerinnen zu erhöhen. Das tun sie, indem sie uns Inhalte empfehlen, auf die wir mit hoher Wahrscheinlichkeit reagieren. Sprich: Antworten, teilen, liken, usw. Solange wir mit Inhalten interagieren, sind wir auf der Plattform und solange wir auf der Plattform sind, können wir Werbung konsumieren. Und das ist das Business-Modell von diesen Plattformen. Damit verdienen sie ihr Geld. 

Das klingt erstmal noch nicht nach einem Problem.
Das Problem dabei ist, dass diese Inhalte, auf die wir mit hoher Wahrscheinlichkeit reagieren, tendenziell Inhalte sind, die uns eher aufregen, uns stark emotionalisieren, die vielleicht reißerisch sind. Wenn überwiegend nur noch solche Inhalte Weiterverbreitung finden, führt das dazu, dass es zu nachteiligen Konsequenzen für die Gesellschaft kommt, dass sich extreme Standpunkte eher weiter verbreiten als moderate. Dass es zu Polarisierung kommt, dass das Vertrauen in Institutionen untergraben wird und auch, dass Menschen eine solide Informationsbasis verlieren.

Warum ist das so? Könnte das nicht auch das Gegenteil sein? Könnten Algorithmen nicht so ausgelegt sein, dass sie positivere Inhalte verstärken?
Das geht ein wenig in die Psychologie, aber eine gute Analogie sind klassische Nachrichten. Da kommen auch zum größten Teil schlechte Nachrichten und wenig gute Nachrichten, weil wir Menschen dazu tendieren, uns für schlechte Nachrichten mehr zu interessieren. Es ist empirisch so, dass Menschen eher auf Dinge klicken, die sie stärker emotionalisieren.

Wie gefährlich ist das für unsere Gesellschaft? Wären wir ohne diese Art der Algorithmus-gesteuerten sozialen Medien “besser dran”?
Es ist schwierig, einen direkten Kausalzusammenhang zwischen der Funktionsweise eines spezifischen Algorithmus und gesellschaftlichen Phänomenen, wie zum Beispiel dem Erstarken von rechtsgerichteten politischen Parteien, zu ziehen. Aber man kann sich zum Beispiel ansehen, was in den USA passiert. Da gibt es auch viele Expertinnen und Experten, die sagen, dass Social-Media-Plattformen zumindest einen Anteil daran haben. Daher würde ich sagen, die Gefahr für das Fortbestehen von Demokratien ist nicht zu vernachlässigen - insbesondere, weil sich immer mehr und mehr von dem Diskurs, den wir als Gesellschaft haben, auf diese Social-Media-Plattformen verlagert und die klassischen Nachrichtenquellen immer mehr an Bedeutung verlieren.

Kann man hier in puncto Plattformen Abstufungen machen - also würden Sie sagen, diese oder jene Plattform ist “gefährlicher” als die anderen?
Es sind überall die gleichen Mechanismen und es braucht auch irgendeinen Algorithmus, um Inhalte zu empfehlen, weil niemand alles lesen kann, was auf diesen Plattformen vorhanden ist. Es ist sehr schwer zu sagen, diese eine ist schlimmer als die andere, auch weil ganz unterschiedliche Demografien auf den unterschiedlichen Plattformen unterwegs sind. Es ist auch sehr länderspezifisch. Manche Plattformen sind in manchen Ländern populärer als in anderen. TikTok ist die Plattform, wo wir am wenigsten darüber wissen, wie der Empfehlungsalgorithmus eigentlich funktioniert. Das ist die größte Black Box, auch für uns als Forschende. Über Plattformen wie Twitter (X) oder Reddit wissen wir deutlich mehr. Da verstehen wir zumindest ein bisschen mehr, was passiert, was sie aber nicht unbedingt weniger bedrohlich macht.

Sie sagen, man weiß “ein bisschen mehr”: Würden Sie sich trotzdem wünschen, dass transparenter gemacht werden müsste, wie Algorithmen eingesetzt werden?
Absolut. Im Prinzip ist das ja auch schon angelegt in der aktuellen Gesetzgebung vom Digital Services Act, der auf EU-Ebene ausgearbeitet wurde und im Februar vergangenen Jahres in Kraft getreten ist. Da ist zum Beispiel festgelegt, dass Forschende auf die Daten dieser Plattformen Zugriff bekommen sollen - auch auf Dinge, die nicht öffentlich sind. Es gibt nur noch keine Prozesse dafür, uns diese Informationen zukommen zu lassen. 

Kann es nicht auch sein, dass es den Plattformen schlichtweg irgendwann auf den Kopf fällt, wenn sie es mit dem Einsatz der Algorithmen übertreiben - etwa, weil Timelines überfrachtet werden und Nutzerinnen und Nutzer gar keine interessanten oder relevanten Infos mehr zu sehen bekommen?
Ja, das ist eine Hypothese, die es gibt, dass die Plattformen so einen Zyklus durchmachen. Cory Doctorow hat das “Enshittification” genannt, wo Plattformen am Anfang ihres Lebenszyklus ganz interessiert daran sind, die bestmögliche Experience für ihre Nutzer zu schaffen. Und sobald alle dann auf der Plattform sind und nicht mehr wegkönnen, weil auch alle ihre Freunde auf der Plattform sind, fangen sie an, ihren Service sukzessiv schlechter zu machen, um möglichst viel Profit zu extrahieren. Das Problem ist, dass die Hürde, die Plattform zu verlassen, extrem hoch ist, weil wir große Kontaktnetzwerke aufbauen. Das heißt, die Plattformen können sich ziemlich viel erlauben, bis eine kritische Masse von Nutzern und Nutzerinnen tatsächlich geht.

Besteht überhaupt die Chance, dass heutzutage noch eine neue Plattform entsteht, die nicht diesen Weg einschlägt?
BlueSky ist ein interessantes Beispiel, weil es zumindest der Idee nach so konstruiert ist, dass es dagegen Sicherheitsplanken gibt. Und zwar, weil BlueSky ein offenes Protokoll implementiert, das dafür gesorgt, dass es nicht nur einen Algorithmus geben kann, der Inhalte empfiehlt, sondern dass es Alternativen geben kann und dass sich Nutzer aussuchen können, über welchen Algorithmus sie ihre Inhalte präsentiert kriegen. 

Sie forschen dazu: Wie müsste eine ideale Plattform aus Ihrer Sicht aussehen, um ausreichend Transparenz zu bieten, sich nicht in demokratiegefährdende Richtungen zu entwickeln, etc.?
Es ist eine gute Frage, ob das in privater Hand überhaupt möglich ist. Es gibt eine doch recht große Strömung von Menschen, die sagen, das sollte eigentlich in staatlicher Hand sein. Das ist mittlerweile so eine wichtige Informationsinfrastruktur, analog zum öffentlich-rechtlichen Rundfunk. Ich persönlich glaube, eine Sache, die viel helfen würde, ist, wenn Inhalte nicht mehr in Plattformen eingesperrt sind, sondern Nutzer die Macht über ihre eigenen Inhalte haben. 

Wie genau würde das aussehen?
Man stelle sich vor, ich kreiere einen ein Posting oder ein Video oder ein Foto oder was auch immer und ich behalte die Hoheit darüber. Ich poste es in ein System und es gibt dann verschiedene Algorithmen oder Plattformen, die darauf zugreifen können, um das ihren Nutzern und Nutzerinnen auszuspielen. Das wäre ein Schritt. Wir als Forschende wollen nicht die Richterinnen sein über gute oder schlechte Algorithmen. Was wir machen wollen, ist einen Prozess aufsetzen, wo wir Stakeholdern und auch repräsentativen Bevölkerungssamples ermöglichen, sich eine Meinung zu bilden und Algorithmen mitzugestalten. Das soll dann übersetzt werden in die tatsächliche technische Implementierung von Algorithmen, die man anwenden könnte auf sozialen Medien, wenn man denn wollte.

TikTok steht aufgrund seiner Algorithmen besonders stark in der Kritik. Vor allem, weil sich dort immer mehr (junge) Menschen in unterschiedliche Richtungen aufgrund der engen Blasenbildung radikalisieren. Sprechen Sie sich, wie viele andere inzwischen, auch für ein Verbot von TikTok aus?
Bedingt ist es schon möglich. Man kann die App aus dem App Store nehmen, zum Beispiel. Damit reduziert man sicher die Anzahl der Leute, die das nutzen. Man könnte gewisse IPs blocken, was ja durchaus auch passiert. Aber es ist immer ein Katz-und-Maus-Spiel, bei dem Sachen geblockt werden und dann findet man wieder einen Weg rundherum. Leute, die technisch versiert sind, benutzen einen VPN-Service und gaukeln dem System vor, dass sie in einem anderen Land sind und greifen darüber auf das System zu. Ich glaube, man könnte die Anzahl der NutzerInnen sicher reduzieren, wahrscheinlich sogar drastisch, aber ganz verhindern, dass Leute die Plattform nutzen, wird man nicht können.

Es gibt immer wieder Anläufe, Plattformen zu starten, die demokratischer, offener und transparenter sind (Stichwort Mastodon). Gleichzeitig hat man meist den Eindruck, dass es bei der Nutzerfreundlichkeit Hürden gibt und diese Plattformen für die breite Masse oft zu kompliziert sind. Teilen Sie diese Ansicht?
Aus meiner Perspektive hat das nichts mit dem technischen Hintergrund zu tun. Mastodon, und ich stimme Ihnen zu, das war einen Schritt zu kompliziert für die meisten Nutzerinnen, war zu idealistisch, glaube ich. Ich finde BlueSky ist ein ganz gutes Gegenbeispiel, weil es zumindest mittlerweile ziemlich exakt so funktioniert wie X. Da spreche ich auch aus einer Perspektive als jemand, die persönlich umgestiegen ist von X auf BlueSky. Also es ist möglich, alternative Technologien so zu designen, dass sie sich gut anfühlen. Natürlich wird Design besser, je mehr Geld man da reinsteckt. Deswegen ist die große Frage, was für ein Business Model diese Plattformen dann fahren können. 

Hat dir der Artikel gefallen? Jetzt teilen!

Claudia Zettel

ClaudiaZettel

futurezone-Chefredakteurin, Feministin, Musik-Liebhaberin und Katzen-Verehrerin. Im Zweifel für den Zweifel.

mehr lesen
Claudia Zettel

Kommentare