Zum Hauptinhalt springen

Folge 12: Warum KI (häufig) sexistisch ist

Wenn ChatGPT Geschlechterklischees reproduziert und bildgenerierende KI-Tools Wissenschaftlerinnen (halb-)nackt darstellen, dann handelt es sich dabei um Sexismus. Doch (wie) kann Software sexistisch sein?

In der zwölften Folge (bzw. vormals sechsten Hintergrundfolge) von Informatik für die moderne Hausfrau blicken wir auf verschiedene Beispiele sexistischer Diskriminierung von Frauen durch KI-basierte Anwendungen. Da jedes KI-Modell nur so gut ist wie die Daten, mit denen es trainiert wurde, beschäftigen wir uns mit zwei sehr problematischen Phänomenen, nämlich dem Gender Data Gap und dem Gender Data Bias.

Dieser Beitrag ist nur für Unterstützer*innen des Podcasts zugänglich. Um ihn lesen zu können, musst du Mitglied werden.

Jetzt unterstützen (Öffnet in neuem Fenster)

0 Kommentare

Möchtest du den ersten Kommentar schreiben?
Werde Mitglied von Informatik für die moderne Hausfrau und starte die Unterhaltung.
Mitglied werden