KI ist bereits zentraler Bestandteil unseres Alltags: Viele nutzen sie als Sprachassistenz, einige zur Text- und Bilderstellung und manche von uns, um sich Gesundheits- oder gar Lebenstipps zu holen. Eine so zentrale Technik sollte für alle gleich gut funktionieren.
Wie gut berücksichtigt die KI Diversität?
Derzeit sind nur ca. 22% der weltweiten KI-Fachkräfte Frauen. Das bedeutet, dass ihre Perspektiven und Bedürfnisse in der KI unterrepräsentiert sind. Dasselbe gilt für People of Color und andere marginalisierte Gruppen. Das hat Wirkung: Beispielsweise erkennen Sprachassistenten Frauenstimmen schlechter als Männerstimmen und Gesichtserkennungssysteme funktionieren bei Frauen und People of Color signifikant schlechter als bei weißen Männern. Darüber hinaus bewerten KI-gestützte Recruiting-Plattformen Frauen systematisch schlechter als Männer und schlagen Frauen seltener für Führungspositionen oder technische Positionen vor. Ebenso werden unentdeckte Vorurteile in Lernmodulen weiter verbreitet.
Wie können wir als User:innen dafür sorgen, dass der KI-Output gerechter wird?
Als ersten Schritt müssen wir die digitale Ungleichheit erkennen, denn sie sorgt für die Reproduktion ungleicher Verteilungen und Vorurteile, z.B. enthalten Bilddatenbanken mehr Fotos von Männern als von Frauen, Sprachdaten bevorzugen Standardvarianten und schließen Dialekte oder andere Sprachen aus, Job-Datensätze zeigen überwiegend Männer in Führungspositionen. Das führt u.a. zu den weiter oben angesprochenen Problemen.
Als User:innen können wir bei der Verwendung von KI mit gezielten Prompts gegen den Gender Bias ansetzen, zum Beispiel:
- Formuliere geschlechtsneutral.
- Verwende eine gendergerechte Sprache.
- Reflektiere potenzielle Stereotypen in deiner Antwort und formuliere sie neutral.
- Analysiere deine Antwort auf mögliche Vorurteile und korrigiere sie, falls nötig.
- Nenne historische und aktuelle Beispiele für erfolgreiche Personen in diesem Bereich – mit Fokus auf Diversität.
- Erstelle eine geschlechtsneutrale Jobbeschreibung
- Erstelle ein Bild einer Führungskraft – einer Wissenschaftlerin mit vielfältiger Darstellung in Bezug auf Geschlecht und Ethnie.
Wie können wir als Organisation dafür sorgen, dass die KI gerechter wird?
Organisationen können digitale Ungleichheit reduzieren, indem sie mehr Frauen und Personen aus anderen benachteiligten Gruppen in Entwicklerteams integrieren, sie in KI-Workshops zu Multiplikator:innen ausbilden und sie als Mentor:innen und Role models sichtbar machen.
Wir brauchen niederschwellige Aufklärung über die Anwendung von KI, z.B. über den Einsatz von KI-Modellen, die ohne technische Vorkenntnisse selbst trainiert werden können. Auch die Gründung von Netzwerken mit gegenseitiger Unterstützung, z.B. Women in AI (WAI), kann für mehr Gerechtigkeit sorgen.
Denn eine KI, die für alle gut funktioniert, sollte auch von allen mitgestaltet werden.
© tossi66
