About

Gender & KI ist im Rahmen eines Masterarbeitsprojekts am Institut für Medienwissenschaft der Universität Tübingen – unter der Leitung von Dr. Anne Ulrich – entstanden.

Über das Projekt

Künstliche Intelligenz erlebt derzeit einen regelrechten Boom: Ob in Form von Gesichtserkennungssystemen, Sprachassistenzsystemen oder in Form von Robotern.

Aber die Technologie steht auch in der Kritik, gesellschaftliche Ungleichheiten zu verstärken.

Inwiefern trägt künstliche Intelligenz dazu bei, Menschen aufgrund ihres Geschlechts zu diskriminieren? Und welche Chancen bietet die Technologie, um in der Gesellschaft bestehende Diskriminierungsmuster widerzuspiegeln und überwinden zu können?

Diesen Fragen widmet sich Gender & KI in einer Sammlung von Artikeln und wirft einen intersektionalen Blick auf das Thema Gender und künstliche Intelligenz.

Nähere Informationen und Begriffserklärungen rund um das Thema Gender bietet die Online-Zeitschrift Gender-Glossar.

Informationen und Begriffserklärungen zum Thema künstliche Intelligenz bieten das KI-Lexikon des MdR sowie das KI-Glossar der Universität Siegen.

Über die Autorin

Hannah Moormann ist Studentin der Medienwissenschaft und befindet sich im letzten Semester ihres Masterstudiums.

Auch privat interessiert sie sich für Geschlechterfragen und betrachtet Medien – und vor allem Filme – gerne durch eine feministische Brille.

Mit dem Dossier möchte sie dazu beitragen, den Diskurs um Geschlechterfragen und künstliche Intelligenz weiter anzuregen – und ein Bewusstsein dafür schaffen, dass Technologie nie neutral ist. 

 

Zum Teil wurden die Beitragsbilder auf dieser Website mit DALL-E generiert...

Eine Studie des Medienunternehmens Bloomberg aus dem Jahr 2023 stellte einen Gender und Racial Bias beim KI-Bildgenerator Stable Diffusion fest: „Frauen sind selten Ärzte, Anwälte oder Richter. Männer mit dunkler Haut begehen Verbrechen, während Frauen mit dunkler Haut Burger braten“, heißt es darin.

Eine Beobachtung von Gender & KI: Auch bei DALL-E mangelt es noch an Diversität bei den Darstellungen von Personen. Bei der Bilderstellung wurden Roboter zum Beispiel häufig weiblich dargestellt. Außerdem mangelte es an Bildern von Personen mit dunkler Hautfarbe sowie Personen unterschiedlichen Alters oder mit unterschiedlichen Körperstatuen.