Yvonne Hofstetter sieht die Demokratie durch die Macht der Technologiekonzerne aus dem Silicon Valley gefährdet.
Yvonne Hofstetter sieht die Demokratie durch die Macht der Technologiekonzerne aus dem Silicon Valley gefährdet.
© Getty Images/iStockphoto/ismagilov/iStockphoto

Computer

"Es ist eine Illusion, dass Algorithmen immer richtig liegen"

Sie wählen für uns aus, was für Einträge wir auf Facebook sehen und entscheiden darüber, ob wir einen Kredit bekommen oder nicht: Algorithmen. Die Initiative „Algorithm Watch“ beobachtet diese Prozesse und will für eine gesellschaftliche Debatte sorgen. Die futurezone bat Universitätsprofessorin Katharina Zweig, die am Informatikinstitut an der TU Kaiserslautern lehrt sowie die Philosophin Lorena Jaume-Palasi, die an der Ludwig-Maximilians-Universität München forscht, zum Gespräch.

Futurezone: Ihr seid zwei der Gründerinnen von „Algorithm Watch“. Was genau habt ihr mit der Initiative geplant?
Katharina Zweig: Derzeit sind wir vier Leute. Wir haben auch unlängst eine gemeinnützige GmbH gegründet. Wir wollen alle, die sich für dieses Thema interessieren, vernetzen und dabei helfen, eine unabhängige Kontrollinstitution auf den Weg zu bringen. Mir als Informatikerin ist es aber wichtig, dass wir nicht anfangen, alle Algorithmen kontrollieren und regulieren zu wollen, sondern nur die, die unsere Demokratie ernsthaft erschüttern können.

Algorithmen nehmen einen immer größeren Einfluss auf unser Leben. Wie kann man den Leuten am besten erklären, dass sie das alle betrifft?
Lorena Jaume-Palasi: Ich gebe immer folgendes Beispiel: Wenn wir im Internet eine Reise kaufen, rechnen im Hintergrund Algorithmen aus, ob wir einen PC oder Mac benutzen, aus welchem Land wir kommen und vieles mehr. Anhand dieser Dinge werden die Preise unterschiedlich berechnet. Da werden die Menschen immer hellhörig.

Katharina Zweig, Algorithm Watch
Algorithmen sind nie frei von Vorurteilen und Diskriminierung. Warum haben sie dann trotzdem bei vielen Menschen einen guten Ruf, den der „allumfassenden Weisheit“?
Zweig: Das ist wie beim Gefühl mit dem Kopfrechnen und dem Taschenrechner. Mit der Maschine war plötzlich alles richtig. Wir haben das Erlebnis, dass ein Computer etwas fehlerfrei macht, tief in uns abgespeichert. Doch das Verrechnen kann auch Computern passieren. Es ist eine Illusion, dass die Lösung danach immer richtig ist. Das können wir als Nutzer aber ganz selten nachvollziehen.

Künftig werden viele Entscheidungen von Algorithmen getroffen. Wieso sollten wir Algorithmen vertrauen?
Zweig: Ein normaler Arzt sieht seltene Krankheiten etwa zwei bis drei Mal in seinem Leben. Da kann er nicht viel lernen davon. Aber ein Algorithmus kann von beliebig vielen Ärzten lernen, Muster sammeln und so rauskriegen, wie jemand behandelt gehört.

Aber es ist nicht jedes Beispiel so positiv? Was passiert etwa, wenn ein Algorithmus über die Kreditwürdigkeit eines Einzelnen entscheidet?
Zweig: Wenn Algorithmen gut gemacht sind, ist nachvollziehbar, warum ein Algorithmus so entschieden hat. Der Mensch kann dann immer noch eingreifen. Wenn sie schlecht gemacht sind, verbergen sie Entscheidungen hinter undurchsichtigen Methoden.

Wo wäre so etwas besonders kritisch?
Zweig: In den USA gibt es bereits eine Rückfälligkeitsvorhersage für Kriminelle. Dabei entscheidet ein Algorithmus, ob jemand wieder freigelassen wird oder nicht. Derselbe Algorithmus könnte etwa nur dazu verwendet werden, um rauszufinden, ob man jemandem einen Wiedereingliederungsberater zur Verfügung stellen sollte oder ob das nicht notwendig ist. Auch Algorithmen irren sich immer und stecken Menschen in eine Schublade, in die sie nicht hingehören. Um Algorithmen zu verbessern, müsste man auch mal das Gegenteil tun, von dem, was sie vorschlagen.

Kann man das?
Zweig: Bei sozialen Netzwerken ist das kein Problem. Da wird dauernd an den Algorithmen herumgeschraubt. Das nennt man „AB Testing“. Gruppe A bekommt das angezeigt und Gruppe B das Gegenteil und dann schaut man, was besser funktioniert. Bei gesellschaftlich relevanten Dingen kann man das nicht machen. Daher ist es äußerst bedenklich, wenn Algorithmen über die Freiheit von Menschen entscheiden.

Wie etwa bei der Rückfälligkeitsprognose, die es in den USA gibt.
Zweig: Wir konnten uns diese Algorithmen im Zuge unserer Forschung ansehen. Sie treffen ihre Entscheidungen nach einem Qualitätsmaß, der mit der Situation im Strafvollzug nichts zu tun hat. Das ist, wie wenn ein Auto ausschließlich nach der Qualität der Reifen beurteilt wird. Eine Studie von ProPublica hat gezeigt, dass bei Schwarzen öfters davon ausgegangen wird, dass jemand rückfällig wird als bei Weißen. Der Algorithmus ist daher auch noch rassistisch.

Lorena Jaume-Palasí, Algorithm Watch
Wie kann man Algorithmen möglichst frei von Diskriminierung machen?
Jaume-Palasi: Wenn eine Gesellschaft sich hoch rassistisch ausdrückt und sehr diskriminierende Sprache verwendet darf man sich nicht wundern, wenn sich das auch in Algorithmen widerspiegelt. Aber Diskriminierung an sich kann auch legitim und positiv sein. Es ist nicht immer schlecht, ungleiche Menschen ungleich zu behandeln. Dasselbe brauchen wir auch bei Algorithmen.

Die Algorithmen von Facebook oder Google zählen zu den mächtigsten der Welt. Sie werden laufend angepasst, aber nicht offen gelegt. Gehört das geändert?
Zweig: Ich bin darüber sehr froh, dass sie ihre Algorithmen nicht offenlegen. Als Google den Page Rank bei seiner Suchmaschine offengelegt hat, also den grundlegenden Algorithmus, wie Webseiten in der Suche sortiert werden, haben das viele ausgenutzt und angefangen, zu manipulieren. Google hat hier bereits eine sehr große Transparenz. Die darf nicht größer sein, um nicht noch mehr Manipulation zu erlauben.

Bei Facebook gibt es noch ein anderes Problem mit dem Algorithmus: Wütende Postings mit vielen Reaktionen und Likes werden häufiger angezeigt als solche, die sachlich bleiben.
Zweig: Ich wünsche mir einen Beipackzettel für Algorithmen, in dem offen gelegt wird, wie diese optimiert werden und welchen Anteil die Relevanz und die Zeit, die man auf der Seite verbringt, dabei haben. Man darf hier nicht vergessen, dass die Algorithmen für das gesamte Geschehen auf dem Netzwerk verantwortlich sind. Also auch für Baby-Fotos. Die meisten Nachrichten sind harmlos und bei denen ist es sinnvoll, diese nach gewissen Kriterien nach vorne zu reihen. Aber es gibt soziale Kontexte in denen das keine gute Idee ist. Da muss sich Facebook noch überlegen, wie es damit zukünftig umgeht.

Glauben Sie wird es das von alleine tun?
Zweig: Auch Google musste lernen, dass Feedback dazu führt, dass Skandale höher gekocht werden als sie es wert sind. Deshalb zeigt Google jetzt etwa manche Vervollständigungen bei der Personen-Suche nicht mehr an. Im US-Wahlkampf wurde weder bei Clinton noch bei Trump der Name mit negativen Ereignissen in den Suchergebnissen autovervollständigt. So etwas wird es auch bei Facebook geben, die werden schon noch reagieren.

Haben sozialen Netzwerke Ihrer Meinung nach einen direkten Einfluss auf die Demokratie?
Jaume-Palasi: Die Algorithmen haben bei den US-Wahlen vorhergesagt, dass Hillary Clinton gewinnen wird. Sie haben uns eine Wirklichkeit vorgetäuscht, die dann doch nicht vorhanden war. Weil Menschen sich nicht nur daran orientieren, was ihnen auf Facebook vorgesetzt wird. Sie können sich nicht der Meinung ihrer Oma entziehen, oder der ihrer Arbeitskollegen, oder sonstigen Medien. Die Algorithmen von Facebook sind weit davon entfernt, einen zu starken Einfluss auf uns auszuüben.

Zweig: Ich mache mir keine Sorge um jemanden, der eine Suchmaschine benutzt, um sich politisch zu bilden. Wir sind auch nicht nur einem Informationskanal ausgesetzt, sondern informieren uns via TV, Zeitungen, Internet und soziale Netzwerke. Wir als Forscherinnen konnten noch nicht herausfinden, wie groß der Effekt der Filterbubble wirklich ist. Dazu gibt es bisher nur eine Studie, die von Facebook mitfinanziert wurde. Das halte ich für gesellschaftlich bedenklich.

Sie wollen also doch Einblick in die Algorithmen bekommen?
Zweig: Ich vertraue am meisten unabhängigen Expertengremien, die bei Bedarf hineinschauen und Experimente machen können. Diese Experten müssen über einen hohen Ethikstandard verfügen. Firmengeheimnisse zu Algorithmen gehören geschützt, sonst wächst die Gefahr der Manipulationsversuche.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare