Wie KI die eine Hälfte der Bevölkerung diskriminiert
Dieser Artikel ist älter als ein Jahr!
Machinen können nur das lernen, was man ihnen beibringt. Dazu benötigt es Daten. Künstliche Intelligenz (KI) wird somit erst dadurch „intelligent“, wenn sie aus Datensätzen die richtigen Schlüsse ziehen kann. Doch dazu kommt es nicht immer - was nicht selten daran liegt, dass es über die eine Hälfte der Bevölkerung zu wenig Daten gibt, mit denen man die KIs dieser Welt trainieren kann. Daten zu Frauen werden nämlich oft nicht im selben Umfang erhoben wie die zu Männern, bzw. oft wird bei Studien das Geschlecht nicht explizit untersucht, sondern bewusst rausgelassen.
Das gilt auch für den Technologiebereich. „Frauen sind die Mehrheit der Bevölkerung, aber wir müssen trotzdem dafür kämpfen, dass unsere Bedürfnisse und Rechte abgebildet werden“, sagt Carina Zehetmaier im Gespräch mit der futurezone. Zehetmaier ist Präsidentin des Vereins „Women in AI Austria“, eine Organisation, die sich dafür einsetzt, dass Frauen in der KI nicht nur mitgedacht werden, sondern auch sichtbar gemacht und an der wichtigen, technologischen Entwicklung teilhaben können. „Wir wollen, dass Technologie so entwickelt wird, dass sie uns allen gerecht wird“, erklärt Zehetmaier.
Women in AI Austria
„Women in AI“ ist eine globale Vereinigung mit über 50.000 Mitgliedern in der ganzen Welt. In Österreich gibt es seit November 2020 mit „Women in AI Austria“ ebenfalls einen Verein. Ziel ist es, Expertinnen auf dem Gebiet zu vereinen und als Impulsgeberinnen aufzutreten, um die Auswirkungen von KI auf die Gesellschaft zu erforschen.
Suchmaschinen und ChatGPT vergessen Frauen
Sie nennt ein prominentes Beispiel aus dem Bereich der Suchmaschinen, wo bereits seit längerem mit Algorithmen gearbeitet wird bei der Darstellung der Ergebnisse: In den USA sind 27 Prozent der CEOs weiblich, aber nur 11 Prozent der Ergebnisse der Google-Bildersuche zeigten Frauen. Die Suche nach Autor*innen ergab Ähnliches: Nur 25 Prozent Frauen wurden angezeigt, obwohl in den USA mehr als die Hälfte der Autor*innen weiblich ist (56 Prozent). Frauen werden in den Datensätzen, die hier zur Anwendung kommen, stark unterrepräsentiert. Darüber berichtet auch Caroline Criado-Perez in ihrem Buch „Unsichtbare Frauen“.
Auch eine Eigenrecherche ergab: Fragt man ChatGPT und Bard nach CEOs, befindet sich keine einzige Frau in der Liste der beiden KI-Chatbots. Darauf angesprochen, antwortet ChatGPT: „Es tut mir leid, dass Sie das Gefühl haben, dass ich diskriminierend bin. Das war nicht meine Absicht. Als KI-Modell basiere ich meine Antworten auf den Daten, die ich während meiner Schulung erhalten habe. Wenn in den Daten, die ich gesehen habe, eine unterrepräsentierte Anzahl von Frauen in Führungspositionen vorkommt, kann das erklären, warum ich keine weiblichen CEOs in meiner Antwort genannt habe.“
➤ Mehr lesen: Erschreckend: Wie Suchmaschinen besonders sexistisch werden
Faire KI und aktive Mitgestaltung in Projekten
Zehetmaier sieht das Problem „tief verwurzelt in der Gesellschaft“. Mit neuen Technologien müsse man aber „aktiv dagegensteuern“, damit Frauenbilder im digitalen Raum nicht stereotypisiert und Frauen diskriminiert werden. „Technologie alleine kann keine sozialpolitischen Probleme lösen, aber sie kann diese verstärken, weil wir Entscheidungen von KI-Systemen fälschlicher Weise als neutral und objektiv wahrnehmen (automation bias). Wir, bei Women in AI, wollen Technologie so mitgestalten, dass sie uns helfen kann, bessere, also faire und gerechte Entscheidungen zu treffen“, erklärt Zehetmaier.
Der Verein agiere deshalb nicht nur als Expertinnennetzwerk, sondern arbeitet aktiv an Projekten. „Wir arbeiten etwa im Rahmen eines Erasmus+ Projekts mit europäischen Partnerorganisationen an einer Data Science Plattform für Sozialwissenschaftler*innen“, so Zehetmaier. „Ein weiteres Projekt beschäftigt sich damit, wie wir KI-Komponenten in Gesundheitsanwendungen so verständlich erklären, dass das Pflegepersonal, das Patient*innen betreut, sowie Angehörige diese verstehen“, sagt die KI-Expertin.
Diskriminierung geht nicht von selbst weg
Gender bewusst als Kategorie rauszulassen, schütze auf jeden Fall nicht vor Diskriminierung, so Zehetmaier. „Wenn man Frauen als Kategorie weglässt, kann ein KI-System aus anderen Faktoren auf das Geschlecht Rückschlüsse ziehen und sich dadurch trotzdem diskriminierend verhalten“, erklärt die Expertin und nennt ein Beispiel: Ein Job-Algorithmus lernte alleine aufgrund des bisherigen Gehalts, welches Geschlecht eine Person hat. „Diverse Teams bei der Entwicklung, beim Testing und Monitoring im aktiven Betrieb würden definitiv helfen. Auch wenn meist keine böse Absicht dahinter steckt, fehlt oft das Bewusstsein und hier hilft Diversität“, meint Zehetmaier.
➤ Mehr lesen: Lensa AI machte aus mir eine Wichsvorlage
Kommentare