Was jetzt?
Zentrale Erkenntnisse & Schlussfolgerungen aus dem Projekt
Künstliche Intelligenz trägt dazu bei, gesellschaftliche Ungleichheiten zu verstärken
- Algorithmen verstärken gesellschaftliche Ungleichheiten, was z. B. im Bereich der Medizin lebensgefährliche Folgen haben kann
- Mediale Darstellungen von künstlicher Intelligenz spiegeln Geschlechterstereotype wider
- Die Designs KI-basierter Tools sind vor allem auf die Bedürfnisse weißer – und zumeist männlicher – Menschen zugeschnitten
- Künstliche Intelligenz trägt dazu bei, dass Menschen im Globalen Süden Ausbeutung erfahren – die Technologie selbst aber kaum nutzen können
- Es mangelt an Daten verschiedener Personengruppen – ohne Datenvielfalt kann es keine inklusive KI geben
Künstliche Intelligenz greift Geschlechterstereotype auf
- Mediale Darstellungen von künstlicher Intelligenz spiegeln Geschlechterstereotype wider und prägen die Vorstellungen von KI
- Roboter und Sprachassistenzen folgen häufig noch dem Stereotyp der weiblichen Sekretärin
- KI ist mit dem Bild der Zweigeschlechtlichkeit verbunden
Künstliche Intelligenz geht auch anders...
- Queerfeministische Ansätze aus Kunst und Aktivismus zeigen, dass sich KI auch mit den Vorstellungen von einer diversen Gesellschaft verknüpfen lässt
- Deepfakes sind nicht per se schlecht – es kommt darauf an, für welchen Zweck die Technologie genutzt wird
- KI-Entwicklung muss diverser werden – es braucht mehr Frauen und queere Menschen in diesen Bereichen
- KI-Forschung ist teuer