Saltar para o conteúdo principal

Folge 12: Warum KI (häufig) sexistisch ist

Wenn ChatGPT Geschlechterklischees reproduziert und bildgenerierende KI-Tools Wissenschaftlerinnen (halb-)nackt darstellen, dann handelt es sich dabei um Sexismus. Doch (wie) kann Software sexistisch sein?

In der zwölften Folge (bzw. vormals sechsten Hintergrundfolge) von Informatik für die moderne Hausfrau blicken wir auf verschiedene Beispiele sexistischer Diskriminierung von Frauen durch KI-basierte Anwendungen. Da jedes KI-Modell nur so gut ist wie die Daten, mit denen es trainiert wurde, beschäftigen wir uns mit zwei sehr problematischen Phänomenen, nämlich dem Gender Data Gap und dem Gender Data Bias.

Dieser Beitrag ist nur für Unterstützer*innen des Podcasts zugänglich. Um ihn lesen zu können, musst du Mitglied werden.

Jetzt unterstützen (Abre numa nova janela)

0 comentários

Gostaria de ser o primeiro a escrever um comentário?
Torne-se membro de Informatik für die moderne Hausfrau e comece a conversa.
Torne-se membro