Digital Life

„Wir haben offenbar Schwierigkeiten, einem Mann Anweisungen zu geben“

Sie sind stets zu Diensten, reagieren auf Zuruf und tragen wohl auch nicht zufällig weibliche Namen. Die Sprachassistenzsysteme Siri, Alexa oder Cortana, die in zahlreichen Geräten von smarten Lautsprechern bis zu Smartphones zum Einsatz kommen, verstärken und verfestigen laut einem vor kurzem veröffentlichten Bericht der UNESCO Geschlechterklischees.

Warum digitalen Assistenten das weibliche Geschlecht zugewiesen wird und welche gesellschaftlichen Folgen Geschlechtervorurteile haben, die sich in Systemen künstlicher Intelligenz eingeschrieben haben, erläutert Brigitte Ratzer, Leiterin der Abteilung Genderkompetenz an der TU Wien im Gespräch mit der futurezone.

Warum wird Sprachassistenzsystemen wie Siri, Alexa oder Cortana, ein weibliches Geschlecht zugewiesen?
Brigitte Ratzer:
Es wird argumentiert, dass Nutzer weibliche Stimmen als angenehmer empfinden. Man kann sich dabei auch denken, dass wir offensichtlich große Schwierigkeiten haben, einem Mann Anweisungen zu geben. Es gibt Hinweise aus der Forschung, dass es tatsächlich zur Folge hat, dass das zu Wahrnehmungsverschiebungen führt. Es wird davon ausgegangen, dass Hilfstätigkeiten von weiblichen Entitäten - Frauen sind es ja keine - gemacht werden.

Welche Folgen hat das?
Es tut was mit uns. Es ist davon auszugehen, dass das nicht ohne Einfluss bleibt, wenn solche Geräte in großer Zahl in Verwendung sind. Ähnliches sehen wir aber auch bei Robotern. Männliche Roboter, also Roboter die vom Design her als Männer erscheinen, sind in der Regel Kriegsroboter oder Geräte aus dem Security-Bereich. Im Haushalt und in der Pflege haben wir es entweder mit Tieren oder weiblichen Geräten zu tun. Das sagt auch viel darüber, wem wir welche Eigenschaften zuschreiben. Ich halte das für problematisch. Man sollte darüber nachdenken, was es bedeutet, wenn das unreflektiert übernommen wird. Es gibt auch spannende Ergebnisse aus Experimenten mit Kindern. Man ist draufgekommen, dass es schlau wäre, dass Kinder bitte und danke sagen müssen, wenn sie solchen Geräten Anweisungen geben. Weil es die Umgangsformen - auch geschlechtsunabhängig - verändert.

Brigitte Ratzer von der TU Wien

Studien haben auch gezeigt, dass Systeme künstlicher Intelligenz generell sexistische und auch rassistische Klischees verstärken. 
Das ist überhaupt nicht erstaunlich. Künstliche Intelligenz lernt anhand von Inhalten, die ihr zur Verfügung gestellt werden. Das sind beispielsweise große Textmengen oder Bilder. Sie bekommen ein Abbild unserer Gesellschaft mit allen Ideen und Einstellungen, die wir haben. Wenn Frauen darin nur in bestimmten Zusammenhängen vorkommen, etwa in der Küche oder im Haushalt, Männer aber mit Spitzensport und Karriere in Zusammenhang gebracht werden, dann zieht die Maschine einen Schluss. In Studien hat sich auch gezeigt, das künstliche Intelligenz positive Einstellungen zu Blumen und Düften, aber negative Einstellungen zu Insekten hat. Wenn ich Inhalte nehme, wo solche Vorurteile drinnen sind, dann brauch ich mich nicht zu wundern, dass die Maschine das wiedergibt und verstärkt.

Hat das auch etwas damit zu tun, dass die Entwickler solcher Systeme vorwiegend männlich sind?
Das glaub ich nicht per se. Was ich aber glaube ist, dass je homogener solche Teams sind, desto höher wird auch die Anfälligkeit sein, Fehler zu machen, indem man Auslassungen begeht. Denn was kein Thema ist, kommt auch nicht vor. Wenn nur wenige Frauen in den Entwicklerteams sind, dann ist die Wahrscheinlichkeit, dass Blickwinkel nicht vorkommen, relativ groß.

Wie groß ist der Frauenanteil an der TU Wien?
Bei den Studierenden sind es knapp 30 Prozent, beim Mittelbau 25 Prozent und bei den Professoren nur noch zehn Prozent. Wir haben allerdings eine relativ große Architekturfakultät. In der Informatik ist der Frauenanteil bei Studierenden nicht höher als 17 Prozent. Das ist für uns ein Problem. Wir spüren, dass sich kaum junge Frauen für ein Studium bewerben. In angewandten Fächern wie Elektrotechnik ist der Frauenanteil noch niedriger. Da muss man dringend etwas tun.

Was kann getan werden, um mehr Frauen dazu zu bewegen, in diese Bereiche zu gehen?
Es steht und fällt mit der Lehrerausbildung. Dass man Leute, die an Schulen unterrichten, so ausbildet, dass sie möglichst wenig an gesellschaftlichen Vorurteilen an Jugendliche weitergeben. Wir haben aktuell verheerende Befunde von doppelten Standards in Fächern wie Mathematik, Physik und Chemie. Wir sind leider weit davon entfernt, dass der Unterricht dazu angetan ist, die Mädchen zu ermutigen.

Wie äußern sich solche doppelten Standards?
Meine Tochter hat in der 4. Klasse Volksschule ihre Mathematikschularbeit zurückbekommen. Die Mädchen hatten vorwiegend Einser, die Buben Zweier. Die Lehrerin hat daraufhin von einer großen Überraschung gesprochen. Sie hat sich sicherlich nichts dabei gedacht, aber es ist natürlich eine Botschaft. Viele solche Situationen ergeben für Kinder ein Gesamtbild. Bei diesen Themen geht es darum, wie wir in Zukunft leben werden. Dass bestimmte Gruppen, nicht nur Frauen, systematisch an der Mitgestaltung ausgeschlossen werden, ist auch ein demokratiepolitischer Skandal.

Hat dir der Artikel gefallen? Jetzt teilen!

Patrick Dax

pdax

Kommt aus dem Team der “alten” ORF-Futurezone. Beschäftigt sich schwerpunktmäßig mit Innovationen, Start-ups, Urheberrecht, Netzpolitik und Medien. Kinder und Tiere behandelt er gut.

mehr lesen
Patrick Dax

Kommentare