Was jetzt?

Zentrale Erkenntnisse & Schlussfolgerungen aus dem Projekt

Künstliche Intelligenz trägt dazu bei, gesellschaftliche Ungleichheiten zu verstärken

  • Algorithmen verstärken gesellschaftliche Ungleichheiten, was z. B. im Bereich der Medizin lebensgefährliche Folgen haben kann 
  • Mediale Darstellungen von künstlicher Intelligenz spiegeln Geschlechterstereotype wider
  • Die Designs KI-basierter Tools sind vor allem auf die Bedürfnisse weißer – und zumeist männlicher – Menschen zugeschnitten
  • Künstliche Intelligenz trägt dazu bei, dass Menschen im Globalen Süden Ausbeutung erfahren – die Technologie selbst aber kaum nutzen können
  • Es mangelt an Daten verschiedener Personengruppen – ohne Datenvielfalt kann es keine inklusive KI geben

Künstliche Intelligenz greift Geschlechterstereotype auf

  • Mediale Darstellungen von künstlicher Intelligenz spiegeln Geschlechterstereotype wider und prägen die Vorstellungen von KI
  • Roboter und Sprachassistenzen folgen häufig noch dem Stereotyp der weiblichen Sekretärin
  • KI ist mit dem Bild der Zweigeschlechtlichkeit verbunden 

Künstliche Intelligenz geht auch anders...

  • Queerfeministische Ansätze aus Kunst und Aktivismus zeigen, dass sich KI auch mit den Vorstellungen von einer diversen Gesellschaft verknüpfen lässt
  • Deepfakes sind nicht per se schlecht – es kommt darauf an, für welchen Zweck die Technologie genutzt wird
  • KI-Entwicklung muss diverser werden – es braucht mehr Frauen und queere Menschen in diesen Bereichen
  • KI-Forschung ist teuer