Digital Life

„Servil und unterwürfig“: Siri und Alexa befeuern Geschlechterklischees

Digitalen Assistenten – ob Apples Siri, Amazons Alexa oder Microsofts Cortana – wird häufig ein weibliches Geschlecht zugewiesen. Das verfestige Geschlechtervorurteile, heißt es in einem vor kurzem veröffentlichten Bericht der UNESCO.

Die Tatsache, dass viele Sprachassistenten mit weiblicher Stimme sprechen, sende das Signal das Frauen fügsame und zuvorkommende Dienerinnen seien, die auf Knopfdruck oder auf Zuruf („Hey“ oder „Ok“) verfügbar seien, schreiben die UNESCO-Forscher. Antworten der Assistenzsysteme seien oft servil und würden den Eindruck erwecken, zu flirten, dadurch würde die Vorstellung verstärkt, dass Frauen unterwürfig seien.  

„Ich würde rot werden, wenn ich könnte“

Betitelt ist der der UNESCO-Bericht „I’d Blush if I Could“ („Ich würde rot werden, wenn ich könnte“). Dieselbe Antwort gibt auch Apples Sprachassistenzsystem Siri, wenn man ihm sagt: „Du bist eine Schlampe.“ Amazons Alexa antwortet darauf nicht weniger unterwürfig: „Danke für das Feedback.“

In dem Bericht wird auch kritisiert, dass bei den Anbietern der digitalen Assistenten vorwiegend männliche Teams zum Einsatz kommen. Sie hätten die Systeme so gestaltet, dass die feminisierten Assistenten selbst auf Beschimpfungen im Flirt-Ton antworten würden. Besonders bedenklich werde die Unterwürfigkeit der Sprachassistenten dann, wenn sie selbst auf verbale sexuelle Belästigungen solcherart reagieren.

Sexuelle Belästigung

Dass solche verbalen sexuellen Belästigungen in der Nutzung der Assistenzsysteme nicht ungewöhnlich sind, bestätigen in dem Bericht auch die Entwickler selbst. Rund fünf Prozent der Interaktionen seien eindeutig sexuell explizit, wird ein Mitarbeiter einer Anbieterfirma zitiert. Die Dunkelziffer dürfte weit höher sein, heißt es weiter, da sich sexuell suggestive Rede nicht immer eindeutig als solche identifizieren lasse.

„Es muss viel mehr Aufmerksamkeit darauf gelegt werden, wie wann und ob künstliche Intelligenz gegendert wird und auch darauf, wer die Zuweisung von Geschlechtern vornimmt“, sagt die UNESCO-Direktorin für Geschlechtergleichheit Saniye Gülser Corat. Die Tatsache, dass die Technologie relativ jung sei, biete noch Gelegenheit, weniger schädliche Normen in ihrer Anwendung zu etablieren.

Standardmäßig weiblich

Zwar können Nutzer bei einigen Sprachassistenzsystemen, etwa Apples Siri oder Amazons Alexa, das Geschlecht der Stimme in den Einstellungen ändern. Standardmäßig ist jedoch eine weibliche Stimme voreingestellt.

In dem UNESCO-Bericht werden die Entwickler solcher Systeme aufgefordert, genau das nicht zu tun. Technologiefirmen sollten nach Möglichkeiten suchen, ein neutrales maschinelles Geschlecht einzusetzen, das weder männlich noch weiblich sei. Die Systeme sollten auch so programmiert werden, dass sie auf dem Geschlecht basierende Beleidigungen und beleidigende Sprache unterbinden, empfehlen die UNESCO-Forscher.

Geringer Frauenanteil in der Technik

Das Beispiel der Sprachassistenten wählten die UNESCO-Forscher auch, um zu demonstrieren, dass Teams die Systeme mit künstlicher Intelligenz entwickeln, ausgewogener besetzt werden müssen. Frauen würden heute lediglich zwölf Prozent der Forscher auf dem Gebiet ausmachen, in der Software-Entwicklung sei der weibliche Anteil mit sechs Prozent noch geringer. Die Wahrscheinlichkeit, dass im Bereich der Informationstechnologie ein Patent durch eine Frau eingereicht werde, sei dreizehnmal geringer als bei einem Mann, heißt es in dem Bericht.

Um die Ungleichheit zwischen den Geschlechtern in der künstlichen Intelligenz zu verringern, müsse mit Maßnahmen in der Ausbildung begonnen werden. Nur so könne der Frauenanteil in der IT erhöht werden. Dazu empfiehlt die UNESCO in ihrem Bericht unter anderem IT-Kenntnisse in den allgemeinen Unterricht zu integrieren, Barrieren zu beseitigen und zusätzliche Anreize für Frauen zu schaffen.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare