AI (Artificial Intelligence) concept. Deep learning. Visual contents.
© Getty Images/iStockphoto / metamorworks/IStockphoto.com

Digital Life

Wie KI die eine Hälfte der Bevölkerung diskriminiert

Machinen können nur das lernen, was man ihnen beibringt. Dazu benötigt es Daten. Künstliche Intelligenz (KI) wird somit erst dadurch „intelligent“, wenn sie aus Datensätzen die richtigen Schlüsse ziehen kann. Doch dazu kommt es nicht immer - was nicht selten daran liegt, dass es über die eine Hälfte der Bevölkerung zu wenig Daten gibt, mit denen man die KIs dieser Welt trainieren kann. Daten zu Frauen werden nämlich oft nicht im selben Umfang erhoben wie die zu Männern, bzw. oft wird bei Studien das Geschlecht nicht explizit untersucht, sondern bewusst rausgelassen.

Das gilt auch für den Technologiebereich. „Frauen sind die Mehrheit der Bevölkerung, aber wir müssen trotzdem dafür kämpfen, dass unsere Bedürfnisse und Rechte abgebildet werden“, sagt Carina Zehetmaier im Gespräch mit der futurezone. Zehetmaier ist Präsidentin des Vereins „Women in AI Austria, eine Organisation, die sich dafür einsetzt, dass Frauen in der KI nicht nur mitgedacht werden, sondern auch sichtbar gemacht und an der wichtigen, technologischen Entwicklung teilhaben können. „Wir wollen, dass Technologie so entwickelt wird, dass sie uns allen gerecht wird“, erklärt Zehetmaier.

Women in AI Austria

„Women in AI“ ist eine globale Vereinigung mit über 50.000 Mitgliedern in der ganzen Welt. In Österreich gibt es seit November 2020 mit Women in AI Austria ebenfalls einen Verein. Ziel ist es, Expertinnen auf dem Gebiet zu vereinen und als Impulsgeberinnen aufzutreten, um die Auswirkungen von KI auf die Gesellschaft zu erforschen.

Suchmaschinen und ChatGPT vergessen Frauen

Sie nennt ein prominentes Beispiel aus dem Bereich der Suchmaschinen, wo bereits seit längerem mit Algorithmen gearbeitet wird bei der Darstellung der Ergebnisse: In den USA sind 27 Prozent der CEOs weiblich, aber nur 11 Prozent der Ergebnisse der Google-Bildersuche zeigten Frauen. Die Suche nach Autor*innen ergab Ähnliches: Nur 25 Prozent Frauen wurden angezeigt, obwohl in den USA mehr als die Hälfte der Autor*innen weiblich ist (56 Prozent). Frauen werden in den Datensätzen, die hier zur Anwendung kommen, stark unterrepräsentiert. Darüber berichtet auch Caroline Criado-Perez in ihrem Buch „Unsichtbare Frauen“.

Auch eine Eigenrecherche ergab: Fragt man ChatGPT und Bard nach CEOs, befindet sich keine einzige Frau in der Liste der beiden KI-Chatbots. Darauf angesprochen, antwortet ChatGPT: „Es tut mir leid, dass Sie das Gefühl haben, dass ich diskriminierend bin. Das war nicht meine Absicht. Als KI-Modell basiere ich meine Antworten auf den Daten, die ich während meiner Schulung erhalten habe. Wenn in den Daten, die ich gesehen habe, eine unterrepräsentierte Anzahl von Frauen in Führungspositionen vorkommt, kann das erklären, warum ich keine weiblichen CEOs in meiner Antwort genannt habe.“

➤ Mehr lesen: Erschreckend: Wie Suchmaschinen besonders sexistisch werden

Carina Zehetmaier ist Expertin, Sprecherin und Vortragende zum Thema “Rechtliche und Ethische Aspekte vertrauenswürdiger Künstlicher Intelligenz” und beschäftigt sich mit den Auswirkungen von KI auf die Wirtschaft, Arbeitswelt und Gesellschaft. Als solche berät sie Unternehmen. Sie ist auch Präsidentin des Vereins “Women in AI Austria”. Bevor sie ihr eigenes KI-Unternehmen gründete, repräsentierte die gelernte Jurstin und Menschenrechtlerin die Europäische Union und Österreich in verschiedenen UN-Organisationen in Genf.

Faire KI und aktive Mitgestaltung in Projekten

Zehetmaier sieht das Problem „tief verwurzelt in der Gesellschaft“. Mit neuen Technologien müsse man aber „aktiv dagegensteuern“, damit Frauenbilder im digitalen Raum nicht stereotypisiert und Frauen diskriminiert werden. „Technologie alleine kann keine sozialpolitischen Probleme lösen, aber sie kann diese verstärken, weil wir Entscheidungen von KI-Systemen fälschlicher Weise als neutral und objektiv wahrnehmen (automation bias). Wir, bei Women in AI, wollen Technologie so mitgestalten, dass sie uns helfen kann, bessere, also faire und gerechte Entscheidungen zu treffen“, erklärt Zehetmaier.

Der Verein agiere deshalb nicht nur als Expertinnennetzwerk, sondern arbeitet aktiv an Projekten. „Wir arbeiten etwa im Rahmen eines Erasmus+ Projekts mit europäischen Partnerorganisationen an einer Data Science Plattform für Sozialwissenschaftler*innen“, so Zehetmaier. „Ein weiteres Projekt beschäftigt sich damit, wie wir KI-Komponenten in Gesundheitsanwendungen so verständlich erklären, dass das Pflegepersonal, das Patient*innen betreut, sowie Angehörige diese verstehen“, sagt die KI-Expertin.

Diskriminierung geht nicht von selbst weg

Gender bewusst als Kategorie rauszulassen, schütze auf jeden Fall nicht vor Diskriminierung, so Zehetmaier. „Wenn man Frauen als Kategorie weglässt, kann ein KI-System aus anderen Faktoren auf das Geschlecht Rückschlüsse ziehen und sich dadurch trotzdem diskriminierend verhalten“, erklärt die Expertin und nennt ein Beispiel: Ein Job-Algorithmus lernte alleine aufgrund des bisherigen Gehalts, welches Geschlecht eine Person hat. „Diverse Teams bei der Entwicklung, beim Testing und Monitoring im aktiven Betrieb würden definitiv helfen. Auch wenn meist keine böse Absicht dahinter steckt, fehlt oft das Bewusstsein und hier hilft Diversität“, meint Zehetmaier.

➤ Mehr lesen: Lensa AI machte aus mir eine Wichsvorlage

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare