Netzpolitik

re:publica: Microsoft-Forscherin warnt vor Algorithmen

Die diesjährige Ausgabe der Digitalisierungskonferenz re:publica steht unter dem Motto “Pop”. Dabei geht es nicht vorrangig um Musik, sondern darum, wie Themen in der digitalen Welt gesetzt werden und was digitaler Populismus für die Gesellschaft bedeutet. Die Eröffnungsrede hat am Mittwochvormittag die Microsoft-Forscherin Danah Boyd gehalten. Sie sprach über die Macht von Algorithmen in einer vernetzten Welt und mögliche Strategien, um die Diktatur der Daten zu unterminieren. Die Microsoft-Forscherin sieht vor allem im Bereich des digitalen Informationsökosystems problematische Entwicklungen.

Die starren Regeln, nach denen die Datenanalyse-Software von Suchmaschinen und anderen Plattformen verschiedenen Themen und Quellen Relevanz zuweisen, macht das System anfällig für Manipulationen. Eine Subkultur, die aus Online-Foren hervorgegangen ist, hat gelernt, wie solche Mechanismen manipuliert werden können. Sie kreieren Inhalte, die aufregen und durch provokante Aufmachung die Struktur moderner Medien nutzen, um viele Menschen zu erreichen.

„Eine Gruppe von Teenagern auf dem Internetforum 4chan hat 2008 die weit verbreitete Ansicht, das Internet sei gefährlich für Kinder, genutzt und es mit Beiträgen über frei erfundene Vergewaltigergruppen im Netz bis in die populäre Oprah-Talk-Show geschafft. Sie wissen, wie man die Aufmerksamkeitsökonomie hacken kann”, sagt Boyd.

Es geht nicht um Fakten

Die Politik nimmt solche Themen natürlich gerne auf. Als Boyd die Verantwortlichen Politiker mit Daten zur tatsächlichen Situation der Online-Jugend konfrontierte, hieß es nur ‚bring uns andere Daten‘. „Es ging hier nicht um Fakten, sondern darum, den Leuten zu erlauben, sich über das Internet aufzuregen“, sagt Boyd. Mittlerweile ist das Wissen, wie brisante Themen genutzt werden können, nicht mehr nur bei Netz-Teenagern vorhanden.

Organisierte Kampagnen, teilweise von Staaten finanziert, teilweise von politischen Agenden getragen, befördern die Verbreitung von verhetzenden Inhalten. Mit falschen Social-Media-Accounts, gezielt erstellten Webseiten und durch gezielte Manipulation von Journalisten werden Inhalte in das Mediensystem gedrückt. Dabei spielen der ökonomische Druck auf Medienhäuser und die mühelose Verbreitung von Inhalten im Netz den Hintermännern in die Hände.

Gerade die extreme politische Rechte hat schnell gelernt, das zu nutzen. Selbst Medien, die Propaganda kritisch hinterfragen und in Artikeln richtigstellten, beförderten die Agenda weiter. In einer Online-Medienwelt, in der nur noch Überschriften zählen, geht Differenzierung nämlich schnell unter. Es zählt nur, welche Themen es auf Homepages und Titelseiten schaffen.

Fake News nicht das Problem

Die zugrundeliegende Strategie der Agitatoren ist es, infrage zu stellen, wie Wissen generiert wird. Fake News sind dabei nicht das Thema. „Die gibt es in der Klatschpresse schon immer. Das Problem ist, dass das Vertrauen in Institutionen untergraben wird“, sagt Boyd. So werden Keile in die Gesellschaft getrieben. Die Algorithmen sind dabei nur ein Werkzeug. Derzeit erklären Vertreter der Wirtschaft unter dem Begriff „künstliche Intelligenz“ gerne, dass Algorithmen in Zukunft alle Probleme lösen werden.

Dabei vergessen sie zu erwähnen, dass solche Systeme auf mehreren Ebenen anfällig sind. Das zeigt eine einfache Google-Bildersuche nach dem Begriff „Baby“. Der Suchende bekommt darauf einen ganzen Haufen von weißen Kleinkindern zu sehen. Das liegt auch daran, dass Fotoagenturen gelernt haben, wie sie ihre Bilder prominent platzieren, um sie den Power-Point-Präsentatoren verkaufen zu können. Ihre Angebote sind aber klischeebehaftet und an gesellschaftlichen Normen orientiert.

Google hat versucht, das System zu ändern und die Bilder nach Klickzahlen zu sortieren. Das Ergebnis war aber nicht besser, weil die Nutzer anscheinend weiße Babys bevorzugen. Gesellschaftlich tief verwurzelte Vorurteile und die Manipulationsanfälligkeit der Algorithmen machen neutrale Systeme fast unmöglich.

Strategie der Agitatoren

Die Lücken in den Daten, auf denen die Algorithmen basieren, lassen sich ebenfalls leicht ausnutzen. „Die Menschen googlen nicht ‚Hat der Holocaust tatsächlich stattgefunden‘. Das macht es einfach, die Autovervollständigung von Google zu manipulieren. Die Extremisten setzen darauf, dass Menschen zufällig über solche Dinge stolpern. Ihr Ziel ist es, neugierig zu machen. Durch entsprechende Manipulationen leiten sie Menschen dann weiter auf Propagandamaterial“, sagt Boyd.

Die erste Frage bei algorithmischen Systemen sollte immer sein, wie die Daten gesammelt werden. Freiwillig abgegebene Information wäre der Optimalfall, der aber selten vorkommt. Der zweite wichtige Faktor ist, zu welchem Zweck Daten analysiert werden. „Das Thema vorausschauende Polizeiarbeit ist ein Beispiel.

Wenn aber das Ziel ist, möglichst viele Menschen zu verhaften, wird das System die Streifen an andere Orte schicken, als wenn es um die Schaffung von Vertrauen in der Gemeinschaft geht“, sagt Boyd. Menschen als Schiedsrichter einzusetzen, ist hier kein Allheilmittel. Die entscheidenden Menschen sind am Ende nämlich oft nur die Feigenblätter, die die Verantwortung für Fehler tragen sollen. Piloten etwa fliegen heute kaum noch selber, sondern verlassen sich auf Computer. Sie sind eine Art Knautschzone für eventuelle Systemfehler.

Regulierung kein Allheilmittel

Die öffentliche Debatte zum Thema Algorithmen dreht sich derzeit oft um eine mögliche Regulierung von Tech-Konzernen. Das geht laut Boyd aber am Thema vorbei. „Es geht nicht um die Plattformen. Die Algorithmen sind eine Erweiterung der Bürokratie. Es geht um Verantwortung. Auch Bürokratie ist in der Vergangenheit für unsägliche Zwecke missbraucht werden. Die Regulierung hat also nicht immer gut funktioniert. Wenn wir die Macht der Algorithmen zurückdrängen wollen, reicht es nicht, Plattformen zu regulieren.

Wir müssen bereit sein, die kapitalistischen Machtstrukturen zu hinterfragen, die mit Werbung Geld verdienen wollen und Druck auf die Systeme ausüben. Wir müssen aber auch die kulturellen Kräfte, die ihre Vorurteile befördern wollen, im Auge behalten. Technologie ist nicht der Grund für die Probleme, sondern ihr Verstärker“, sagt Boyd.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!

Markus Keßler

mehr lesen