Du betrachtest gerade Out of the box: Wie Kunst, Design und Aktivismus KI neu denken
Bild: Unsplash/Google DeepMind

Out of the box: Wie Kunst, Design und Aktivismus KI neu denken

Von feministischen Datensätzen bis hin zu geschlechtslosen Sprachassistenzen: Akteur:innen aus Kunst, Design, Wissenschaft und Aktivismus haben sich in den vergangenen Jahren vermehrt mit der Vereinbarkeit von Diversität und KI auseinandergesetzt – und sich die Technologie zum Teil sogar selbst angeeignet.

Spätestens mit dem Aufkommen von Bildgeneratoren wie DALL-E und Midjourney hat künstliche Intelligenz Einzug in Kunst, Design und Aktivismus erhalten. Doch inzwischen lassen sich auch Projekte von Menschen finden, die sich nicht mehr von den Tools großer Unternehmen abhängig machen wollen – oder Kunst nutzen, um diese öffentlich zu kritisieren. Fünf ausgewählte Projekte zeigen, wie vielfältig und kreativ Menschen aus aller Welt vorgehen, um zum Beispiel verzerrte Algorithmen und Geschlechternormen in KI-Technologien sichtbar zu machen – oder eigene Lösungen für mehr Diversität in der Technik zu entwickeln.

FÜR MEHR DIVERSITÄT IN DATENSÄTZEN UND ALGORITHMEN

Caroline Sinders Feminist Data Set

Ohne Daten keine KI – aber wie müssen diese Daten aussehen, damit sie keine Stereotype verfestigen? Und wie lassen sich Algorithmen mit Feminismus und Diversität verbinden? Mit diesen Fragen beschäftigt sich Caroline Sinders seit 2017 im Rahmen ihres Projekts Feminist Data Set. Das Kunst- und Forschungsprojekt sei vor allem eins: ein Gegenentwurf zu großen Tech-Unternehmen, deren Datensammlung und -verarbeitung „versteckt“ ablaufen würde. Das schreibt die US-Amerikanerin in einem projektbegleitenden Online-Reader. Das Feminist Data Set sei daher „als ein Akt des Protests“ zu verstehen.

Mit ihrem Projekt verfolgt Sinders zwei Ziele, die sie in ihrem Reader benennt: Zum einen will sie der Entstehung sogenannter Biases – Verzerrungen – in Machine-Learning-Systemen auf den Grund gehen. Zum anderen umfasst das Projekt den Versuch, eine feministische KI zu kreieren. In einem Interview mit Zeit Online konkretisierte Sinders ihr Ziel: Sie arbeite an einem Machine-Learning-Modell, das feministische Texte verstehen und nachbilden könne.

Eine feministische KI zu entwickeln, bedeutet – so wird es in Sinders Projekt-Reader deutlich – den gesamten Entwicklungsprozess durch eine „feministischen Brille“ zu betrachten: von der Datensammlung über das Training bis hin zum Design der Benutzeroberfläche.

Sinders setzt auf Workshops und die Zusammenarbeit mit einer möglichst diversen Community. Bisher befinde sich das Feminist Data Set noch in der Datensammlung, schreibt sie in ihrem Reader. Die Aufgabe bestehe darin, Texte möglichst unterschiedlicher Autor:innen zu suchen und zusammenzustellen. Ein, wie sie in dem Interview mit Zeit Online schildert, schweres Unterfangen: Suchmaschinen wie Google seien biased. Ihre Algorithmen würden über die Relevanz von Inhalten entscheiden. Vor allem Texte von Frauen seien noch immer wenig sichtbar.

Im Rahmen des Feminist Data Set setzt sich Sinders auch für fairere Arbeitsbedingungen von Clickworker:innen ein. 2020 entwickelte sie ein Open-Source-Tool, mit dem sich Trainingsdaten für KI-Systeme labeln lassen. Außerdem umfasst das Tool Technically Responsible Knowledge einen Lohnrechner, mit dem zum Beispiel Kunstschaffende und Wissenschaftler:innen ermitteln können, ob die von ihnen engagierten Clickworker:innen einen angemessenen Lohn erhalten. Sinders will damit eine Alternative zu Amazons Mechanical Turk schaffen.

Queering AI – Neuronale Netze generieren queere Texte

Queering – so erklärt Blair Attard-Frost von der Universität Toronto im Buch Queere KI: Zum Coming-out smarter Maschinen – ist vor allem als ein Prozess zu verstehen, der „die vorherrschenden Werte heteronormativer, hypermaskuliner und cis-normativer Kulturen“ aufzeige. Etwas zu ‚queeren‘ bedeute „eine Abkehr und Auflösung von Normierung.“ Es gehe also vor allem darum, bestehende Strukturen zu hinterfragen und neue Diskurse zu eröffnen, erklärt Attard-Frost.

Dass sich auch künstliche Intelligenz queeren lässt, haben etwa die Künstler:innen Emily Martinez und Ben Lerchin gezeigt. 2018 beginnen sie, an einem Chatbot zu arbeiten, den sie mit Texten aus der feministischen und queeren Kulturtheorie sowie mit queerer Literatur trainierten. „Queer AI“, so heißt es auf Lerchins Website, erträume „eine Zukunft mit vielen queeren Bots“, und solle einer „Vielzahl von Bedürfnissen und Wünschen“ zugutekommen. Der Chatbot sei ein Gegenentwurf zu „zerstörerischen Cyborgs und unterwürfigen Fembots“. Im Gegensatz zu diesen Figuren solle Queer AI keinen geschlechtsspezifischen Skripten folgen, schreibt Lerchin.

Emily Martinez leiht einem Avatar mit puertoricanischem Akzent ihre Worte. Das Coden hat sich Martinez selbst beigebracht.

Auf Emily Martinez‘ Website erhält man Einblick in eine Auswahl an Gesprächen, die they mit dem Chatbot geführt hat. Die Antworten von Queer AI wirken teils recht konfus. Mit den Reaktionen herkömmlicher und sonst eher serviceorientierter Bots haben sie allerdings wirklich wenig gemein.

Das Projekt wurde bereits 2020 abgeschlossen. Die KI-Technologie, mit welcher der Chatbot funktionierte, nutzte Emily Martinez allerdings weiter. Innerhalb des Projekts Ultimate Fantasy etwa, experimentierte they mit der Technologie und erstellte KI-generierte Kurzgeschichten und Lyrik.

Wie Martinez zur digitalen Kunst mit KI kam und was they antreibt, sich mit dem Thema auseinanderzusetzen, erklärt der Avatar Nina, dem Martinez für ein Video unter anderem diese Worte leiht:

Either way, I will die one day. So will you. And all that may be left of us are these digital ghosts. Pero if I leave anything in this matrix, please let it engender kindness, humility, and grace.

Diskriminierende Algorithmen mit Lyrik greifbar machen

Joy Buolamwini bezeichnet sich selbst als „Poet of Code“. In ihrem Gedicht „AI, Ain’t I A Woman?“, zeigt die Aktivistin und Wissenschaftlerin vom Massachusetts Institute of Technology (MIT) eindrucksvoll auf, wie KI-basierte Gesichtserkennungstools daran scheitern, das Geschlecht von Menschen – und insbesondere Frauen – mit dunkler Haut zu identifizieren. Buolamwini verknüpft ihre Lyrik auf diese Weise mit den ernüchternden, aber überaus bedeutenden Ergebnissen ihrer Forschung.

Joy Buolamwinis ‚Poetry Slam‘ zu AI, Ain’t I A Woman?

Die KI-Forscherin hat sich der Aufgabe verschrieben, gegen diskriminierende Algorithmen vorzugehen. Ihre Beweggründe: Im Laufe ihrer wissenschaftlichen Karriere habe sie immer wieder die Erfahrung gemacht, dass KI-Systeme ihr Gesicht nicht erkannt hätten. Sie habe sich teilweise sogar eine weiße Maske aufgesetzt, um erkannt zu werden, wie die Wissenschaftlerin 2016 in einem Ted-Talk berichtet. Das Problem: Die KI-basierten Systeme seien voreingenommen, weil sie vorwiegend mit den Gesichtern weißer Menschen trainiert wurden. Dies könne allerdings gefährlich werden, denn derartige Gesichtserkennungssysteme würden etwa genutzt, um Straftäter aufzuspüren, gibt Buolamwini zu bedenken.

Es fange „mit den Menschen an“, führt sie aus: „Es kommt darauf an, wer codet, wie wir coden und warum wir coden.“ Sie apelliert unter anderem für mehr Diversität in der KI-Entwicklung. So könne man sich gegenseitig auf individuelle und begrenzte Perspektiven – „blind spots“ – aufmerksam machen und fairere Algorithmen entwerfen.

FÜR MEHR DIVERSITÄT BEI SPRACHASSISTENZEN

MiauMiau – eine fiktive „Anti-Alexa“

Sie war zylinderförmig, komplett mit Kunstfell besetzt und konnte auch mal unfreundlich werden: Die Sprachassistenz MiauMiau. Die Soziologin Natalie Sontopski entwarf den Prototyp für die „Anti-Alexa“ – so lautet es auf der Website der Hochschule Merseburg – gemeinsam mit der Designerin Amelie Goldfuß. MiauMiau war Teil einer experimentellen Installation, die 2020 in Magdeburg ausgestellt wurde. Die Besucher:innen der dortigen Convention KI und Wir* konnten dem Gerät alle erdenklichen Fragen stellen.

Eine rundes Sprachassistenzsystem mit einem leuchtenden Mikrofon.
Spätestens seit dem Report I’d blush if I could, den die UNESCO 2019 veröffentlichte, stehen Sprachassistenzsysteme mit weiblicher Stimme in der Kritik. Die UNESCO argumentierte darin, dass die Systeme als gefügige Frauen designt wären und Geschlechterstereotype verstärken würden. Bild: Pixabay / HeikoAL

Das fiktive Gerät kommunizierte jedoch nicht eigenständig mit ihrem Gegenüber, wie Natalie Sontopski in einem Aufsatz innerhalb des Sammelbands Queere KI: Zum Coming-out smarter Maschinen erklärt. Eine im Nebenraum sitzende Schauspielerin habe die Antworten eingesprochen und per Funk als MiauMiau kommuniziert. Im Gegensatz zu anderen weiblichen Sprachassistenzen wie Siri und Alexa antwortete MiauMiau allerdings nicht unterwürfig, sondern „abweisend statt höflich und frech statt dienstbeflissen“, schreibt Sontopski. Außerdem habe sich das vermeintlich KI-basierte Gerät vorbehalten, „bei rassistischen, sexistischen oder diskriminierenden
Äußerungen das Gespräch abzubrechen“.

Eine Beobachtung Sontopskis: Vor allem männliche Besucher hätten versucht, mit „MiauMiau zu flirten oder sie anzufassen.“ Dieses Verhalten habe möglicherweise mit der weiblichen Stimme des Geräts zusammengehangen, vermutet die Soziologin. Im erwähnten Aufsatz schreibt sie: „In einer Gesellschaft, in der Frauen objektifiziert und sexualisiert werden, scheint es für Nutzer*innen nahezuliegen, diese Dynamik auf gegenderte Artefakte zu übertragen.“

Q – die erste geschlechtsneutrale Sprachassistenz

Die erste geschlechtsneutrale Sprachassistenz stammte allerdings nicht aus dem Hause großer Tech-Unternehmen wie Apple, Amazon, Google oder Microsoft. 2019 wurde Q erstmals öffentlich präsentiert. Die Sprachassistenz hatte nicht nur einen geschlechtsneutralen Namen, sondern auch eine geschlechtsneutrale Stimme. Diese, so heißt es in einem Video auf der Website von GenderLess Voice, liege etwa bei 145 Hertz. Q wurde in enger Zusammenarbeit mit der LGBTQ-Community entwickelt. Die Sprachassistenz geht unter anderem auf Copenhagen Pride und die Non-Profit-Organisation Equal AI zurück. Für ihre Entwicklung hätten zahlreiche Menschen ihre Stimme zur Verfüngung gestellt, die sich als weder männlich noch weiblich identifizieren. Das erzählt die Sprachassistenz in ihrem Vorstellungsvideo.

Inzwischen hat vor allem Apple auf die Kritik an weiblichen Sprachassistenzsystemen reagiert. Die Geräte des Unternehmens bieten nun mehr Diversität in der Sprachauswahl für Siri: In Deutschland können User:innen sich nun zwischen vier verschiedenen Stimmen entscheiden – darunter eine geschlechtsneutrale Variante.

FÜR MEHR DIVERSITÄT IN KI-ENTWICKLUNG?

Ob die Veröffentlichung von Q den Großkonzern Apple dazu inspiriert hat, Siris Sprachauswahl um eine geschlechtslose Variante zu ergänzen, bleibt wohl ein Rätsel.

Vielleicht können derartige Projekte aber doch ein Stück weit dazu anregen, künstliche Intelligenz künftig diverser zu gestalten und Entwickler:innen dazu zu bringen, bei ihrer Arbeit nicht nur weiße Männer und Frauen zu berücksichtigen.

Ein bedeutendes Problem gibt es jedoch: Vor allem Kunstprojekte von queeren Künstler:innen wie Emily Martinez sind online wenig sichtbar und erhalten dadurch wohl auch keine große Aufmerksamkeit. Suchmaschinen wie Google erschweren nicht nur Caroline Sinders die Suche nach feministischen Texten – sondern auch die Recherche für Artikel wie diesen hier.

Schreibe einen Kommentar