Digital Life
03.05.2018

Wie Googles Algorithmen Rassismus und Sexismus fördern

Algorithmen treffen angeblich objektive Entscheidungen. Stattdessen stärken sie sexistische und rassistische Klischees, sagt Safiya Noble.

In einem Vortrag auf der re:publica in Berlin räumt die Forscherin Safiya Umoja Noble mit den falschen Versprechungen der Tech-Industrie auf. "Algorithmen der Unterdrückung" heißt der Titel ihres Vortrags, genau wie ihr aktuelles Buch. Noble setzt mit ihrer Kritik schon in den Kindertagen des Internets an: "Dass der Cyberspace ein Raum sei, der frei von sexistischen und rassistischen Rollenbildern ist, war von Anfang an eine Lüge." Die Benachteiligung von Frauen und nicht-weißen Menschen ziehe sich seit den Anfangstagen der Digitalindustrie durch alle technologischen Entwicklungen. Die jüngsten Top-Tech-Themen - künstliche Intelligenz und Algorithmen - seien hier keine Ausnahme.

"Rassismus ist untrennbar verbunden mit dem modernen Kapitalismus. Ohne Sklaven und das Land der Amerikaner gäbe es die USA heute nicht. Das zieht sich auch durch die Entwicklung der Technologie. Dass Gesichtserkennungsalgorithmen keine schwarzen Gesichter sehen können, ist nur der jüngste Ausdruck", sagt Noble. Das liege auch daran, dass die Vorstellungen der Gesellschaft sich nicht verändert haben. So werde schwarzen Teenagern oft keine Tech-Kompetenz zugesprochen, obwohl sie laut Untersuchungen überdurchschnittliche Kompetenz auf dem Gebiet zeigen.

Google wird gut bezahlt

Die Firmen aus dem Silicon Valley, allen voran der Quasi-Monopolist Google, würden negative Klischees bestärken. So spucke eine Suche nach dem Begriff "Black Girls", genau wie die Eingaben "Asian Girls" oder "Latina Girls", fast ausschließlich Pornoseiten aus. Das sei besonders problematisch, weil die Menschen Suchmaschinen als vertrauenswürdige öffentliche Güter einstufen, obwohl sie profitorientierte Werbeunternehmen sind, die den Interessen kapitalkräftiger Kunden wie der Pornoindustrie gehorchen. Das führe dazu, dass rassistische Stereotype, die schon immer von Medien transportiert wurden, weiter gestärkt und zur falschen Norm aufgebaut würden.

Dabei handle es sich nicht um ein Spiegelbild des Nutzerverhaltens, das durch die Algorithmen analysiert werde, sondern um beinharte Geschäftsinteressen, die von der Fortschreibung solcher Rollenbilder profitieren. So werde eine rassistische Ideologie zur Norm gemacht durch den Einsatz von Technologie. Die Konzerne aus dem Silicon Valley nehmen das offensichtlich in Kauf. "In der Amtszeit von Barack Obama hat eine Google-Suche nach dem N-Wort und Haus zum Weißen Haus geführt. Die Antwort von Google war eine typische Nicht-Entschuldigung: 'Das ist unangebracht, wir arbeiten daran, das zu beheben'", sagt Noble.

Systemversagen

So werde vermittelt, dass es sich nur um einen punktuellen Fehler handle, statt um ein systemisches Versagen: "Ich sehe eine koordinierte Delegitimierung demokratischer Entscheidungsfindungsprozesse. Das Abschieben der Verantwortung auf angeblich objektive Systeme ist gerade für die schwächsten Gruppen in einer Gesellschaft gefährlich", sagt Noble. Wenn eine Google-Suche nach "drei schwarze Teenager" nur Polizeifotos liefert, während derselbe Vorgang mit dem Wort "weiß" Agenturfotos von jungen, weißen Jugendlichen beim Sport bringt, habe das durch den enormen Einfluss von Google und Co Auswirkungen auf die Gesellschaft.

Die Bosse bei Google und Co antworten auf entsprechende Kritik oft mit der Aussage, dass sie ihre Ergebnisse nicht editieren, weil das schlechte Technologie-Praxis sei. Gleichzeitig filtern sie ihre Ergebnisse bei entsprechender Gesetzeslage, etwa in Europa, sehr wohl. Das Loblied auf Technologie, das vor allem in den USA oft gesungen werde, lasse wenig Platz für die Missrepräsentation der Afroamerikaner und anderer Minderheiten. Das werde in Zukunft noch weitreichendere Konsequenzen haben, wenn etwa Algorithmen bestimmen, wo Polizeieinheiten hingeschickt werden. "Arme und nicht-weiße Bevölkerungsschichten sind oft die Laborratten für die Einrichtung solcher Systeme. Wir müssen uns fragen, ob wir diese Entwicklungen unterstützen wollen", sagt Noble.

Alexa herumkommandieren

Neben den Algorithmen ist auch die Hardware nicht frei von Ausbeutung: "Die Rohstoffindustrie, die hinter unseren Geräten steckt, ist ein schmutziges Geschäft. Die Arbeitsbedingungen sind furchtbar und die Rate von Fällen von sexuellen Missbrauch gehören zu den höchsten auf der Welt. Unsere Hyperabhängigkeit von der digitalen Welt trägt zur sozialen Ungleichheit bei", sagt Noble. In Zukunft werden Roboter und persönliche Assistenten größere Verbreitung finden und auch hier sind Klischees tief verwurzelt. "Fragen Sie sich, was es heißt, wenn unsere Kinder Befehle an Siri und Alexa geben. Alexa, gib mir das, oder Siri, tu das. Anthropomorphisierte Maschinen werden Teil unseres Lebens und befördern Rollenbilder. Die größten Investitionen im Roboter-Bereich passieren nicht von ungefähr bei den Herstellern von Sexpuppen", sagt Noble.

Die Tech-Firmen seien derzeit zwar in der Kritik und es werde vielerorts über Regulierung gesprochen, gleichzeitig ziehe sich die öffentliche Hand aber aus dem öffentlichen Verkehr, der Bildung und anderen Gemeingütern zurück. "Ich möchte nicht, dass der Privatsektor aus Silicon Valley hier übernimmt. Die Geschichte von der farbenblinden Meritokratie, die von den Firmen verkauft wird, muss hinterfragt werden. Sie macht Menschen sonst toleranter gegenüber Rassismus. Bald wird ein Prozent der Bevölkerung über drei Viertel des Reichtums verfügen. Wir müssen uns fragen, wo das ganze Geld hinfließt. Digitale Produkte kann man am Ende nämlich nicht essen", sagt Noble.