Künstliche Intelligenz kann den Papst in Daunenjacke zeigen, Barack Obama und Angela Merkel voller Freude am Strand entlanghüpfen lassen – und Pornos mit Menschen kreieren, die nie vor einer Kamera standen: Sogenannte Deepfakes, mit künstlicher Intelligenz erstellte oder manipulierte Inhalte, lassen sich nicht nur zu Zwecken der Satire und politischen Desinformation nutzen, sondern haben sich vor allem zu einem Machtinstrument etabliert, um Frauen und marginalisierte Gruppen zu schaden. Wie es so weit kam und welche Folgen die manipulierten Pornos mit sich bringen, erklärt die Politikwissenschaftlerin Maria Pawelec.
Taylor Swift, Scarlett Johannson oder Nicolas Cage – sie alle haben ihr Konterfei bereits auf Fotos entdeckt, die nie von ihnen gemacht wurden. Nicolas Cage entwickelte sich zu einem regelrechten Meme-Star, weil sich Menschen einen Spaß daraus machten, das Gesicht des Schauspielers auf zahlreiche Film- und Videospielcharaktere zu montieren. Taylor Swift und Scarlett Johansson hingegen sahen sich mit einem ernsthafteren Problem konfrontiert: Ihre Gesichter tauchten in gefälschten Pornos auf, die Internetnutzer:innen in speziellen Foren sowie in den sozialen Medien verbreiteten.
„TATSÄCHLICH SIND PORNOS DIE HAUPTANWENDUNG FÜR DEEPFAKES“
Sogenannte Deepfakes – Bild-, Video-, oder Tonaufnahmen, die mithilfe von künstlicher Intelligenz manipuliert oder erstellt werden und sich durch einen hohen Grad an Realismus auszeichnen – kursieren bereits seit mehreren Jahren im Internet. „Die Debatte um Deepfakes dreht sich häufig um politisch motivierte Deepfakes. Es geht dabei vor allem um Themen wie Wahlkampfmanipulation, ausländische Einflussnahme und Propaganda“, erklärt Maria Pawelec, die an der Universität Tübingen unter anderem zu den gesellschaftlichen Auswirkungen von Deepfakes forscht. „Desinformation und Manipulation war immer das Erste, woran gedacht wurde, aber tatsächlich sind Pornos die Hauptanwendung für Deepfakes“, so die Politikwissenschaftlerin.
Eine 2019 veröffentlichte und vielfach zitierte Studie kam zu dem Ergebnis, dass 96 Prozent aller Deepfakes online pornographisch sind. Das Unternehmen Security Heroes kam 2023 sogar auf 98 Prozent. „Inzwischen gibt es eine Fülle anderer Deepfakes, zum Beispiel im Bereich der Satire oder Deepfakes, die politisch motiviert sind. Fakt ist aber: Die meisten Deepfakes sind pornographisch und nicht einvernehmlich. Sie sind also nicht rechtlich von den Darstellenden abgesegnet“, so Pawelec.
ALLES BEGANN AUF REDDIT
Realistisch wirkende Bilder, kreiert vom Computer – diese Idee hatte der amerikanische Informatiker Ian Goodfellow. 2014 entwickelte er innerhalb einer Nacht die sogenannten Generative Adversarial Networks, kurz GANs. Das Prinzip: Zwei neuronale Netze treten gegeneinander an. Eines erstellt die künstlichen Bilder, das andere bewertet, wie realistisch sie sind. Goodfellow sah in der Technologie viele Einsatzzwecke – konnte aber wohl kaum erahnen, dass er die Basis für heutige Deepfake-Technologien entwickelt hatte.
‚Mainstream‘ wurde die Technologie jedoch erst drei Jahre später: Ein Reddit-User mit dem Namen „deepfakes“ veröffentlichte eine Reihe verfälschter Porno-Videos. Die vermeintlichen Darsteller:innen waren Promi-Frauen wie Gal Gadot oder Scarlett Johannson. Den eigens programmierten Algorithmus stellte „deepfakes“ ebenfalls für andere Nutzer:innen zur Verfügung: Die Deepfake-Technologie kam ins Rollen. „Pornographie war also von Anfang an die Hauptanwendung von Deepfakes“, sagt Maria Pawelec.
VOR ALLEM FRAUEN SIND VON DEEPFAKE-PORNOS BETROFFEN
Und dabei trifft es vor allem Frauen: „Deepfake-Pornos sind ein unbestreitbar geschlechtsspezifisches Phänomen“, schrieb die KI-Expertin Nina Schick in ihrem 2020 veröffentlichten Buch Deepfakes: The Coming Infocalypse. Für ihre Recherche hatte die Autorin sich auf ein frei zugängliches Forum für Deepfake-Pornos gewagt, dort jedoch ausschließlich die Gesichter prominenter Frauen wiedererkannt: „Unter den Hunderten von Videos, durch die ich mich auf den neuen Deepfake-Porno-Seiten scrollte, habe ich kein einziges mit einem männlichen Prominenten gesehen. Kein Brad Pitt, George Clooney oder Johnny Depp.“
Doch nicht nur Prominente sind von Deepfake-Pornographie betroffen. Inzwischen könne es alle treffen, sagt Maria Pawelec: „Als die Technologie ganz neu war, brauchte man noch relativ viel Bildmaterial, um die KI zu trainieren. Von Prominenten existierten natürlich zahlreiche Bilder. Inzwischen hat sich die Technologie aber so weiterentwickelt, dass man nur noch ein einziges Bild braucht, um glaubwürdige Deepfake-Pornos zu erstellen. Ein einzelnes Urlaubsbild, das auf dem privaten Social-Media-Account geteilt wurde, reicht bereits als Basis aus“.
Neben Frauen würden vor allem ethnische Minderheiten sowie queere Personen Opfer von Fake-Pornographie: „Gerade von Frauen, die ethnischen Minderheit angehören, gibt es viele Deepfakes.“

Erst kürzlich sorgte ein Fall in Spanien für Aufsehen, bei dem sogar Minderjährige betroffen waren: In einer Schule des Ortes Almendralejo in der westspanischen Region Extremadura tauchten KI-generierte Nacktbilder mehrerer Mädchen auf – erstellt von ihren ebenfalls minderjährigen Mitschüler:innen.
BETROFFENE SOLLEN DURCH DEEPFAKES DISKREDITIERT…
Ein Motiv hinter den manipulierten Porno-Videos: Die Demütigung der Opfer. „Deepfake-Pornos zu erstellen und zu verbreiten ist eine Form der Machtdemonstration und -festigung“, führt Pawelec aus. Viele Deepfakes würden genutzt, um Rache auszuüben oder die betroffenen Personen gar zu erpressen. „Das kann verheerende Auswirkungen auf das Privatleben, die Beziehungen, Freundschaften und natürlich auf die mentale Gesundheit der Betroffenen haben. Es gibt Fälle, die bis hin zum Selbstmord geführt haben.“
Solche bildbasierte Gewalt gegen Frauen und marginalisierte Gruppen gebe es online bereits seit Jahrzehnten, gibt Maria Pawelec zu bedenken: „Früher hat es allerdings wesentlich mehr Zeit in Anspruch genommen, das Material zu erstellen. Man musste alles aufwändig photoshoppen.“ Auch die Zugänglichkeit von Deepfake-Technologien habe sich erheblich verbessert: „Die Codes zirkulieren auf Plattformen wie Github, Bildgeneratoren sind für jede:n zugänglich. Heute lassen sich solche manipulierten Pornos innerhalb von Sekunden erstellen und über zahlreiche Online-Plattformen verbreiten.“
…UND ZUM SCHWEIGEN GEBRACHT WERDEN
Dass fast ausschließlich Frauen von bildbasierter Gewalt betroffen sind, bewertet Maria Pawelec als eine Bedrohung für die Gleichstellung von Frauen in der Gesellschaft: „Es gab viele Fälle, in denen gezielt Politikerinnen, Aktivistinnen oder Journalistinnen angegriffen wurden, um sie zum Schweigen zu bringen – auch mit Erfolg: Manche dieser Frauen haben sich danach nicht mehr getraut, ihre Meinung öffentlich zu äußern. Außerdem zensieren sich Frauen breiter selbst, aus Angst, Opfer von Deepfakes zu werden.“
So erging es etwa der Inderin Rana Ayub, die 2018 zum Opfer von Deepfake-Pornographie wurde und über Monate hinweg digitale Gewalt erlebte. Die Muslimin hatte zuvor im Gespräch mit der BBC und dem in Katar ansässigen Nachrichtensender Al Jazeera Kritik an der indischen Regierungspartei geäußert. Anlass war die Vergewaltigung eines 8-jährigen, muslimischen Mädchens aus der Region Kaschmir – einer Region, auf die sowohl Pakistan als auch Indien Anspruch erheben. In einem Beitrag für die US-amerikanische Online-Zeitung Huffpost, erzählte die Journalistin ihre Geschichte: Auf eine Serie von Fake-Tweets, die Ayubs Gegner:innen online verbreiteten, folgte ein manipuliertes Pornovideo von ihr, das viral ging – inklusive ihrer Handynummer, die in den sozialen Medien geteilt wurde.
Nach den Vorfällen habe sie begonnen, sich selbst zu zensieren, schrieb die Journalistin: „Ich dachte immer, dass mir niemand etwas antun oder mich einschüchtern könnte, aber dieser Vorfall hat mich wirklich in einer Weise getroffen, die ich nie erwartet hätte.“
PORNOS MÜSSEN „NICHT EINMAL TÄUSCHEND ECHT AUSSEHEN“
Ein weiteres Problem: Die Technologie entwickelt sich rasant weiter. Deepfakes würden dadurch immer realer wirken, gibt Pawelec zu bedenken: „Inzwischen gibt es zwar Detektionstools, mit denen sich Deepfakes identifizieren lassen – allerdings hängen die der Technologie immer ein Stück hinterher.“ Dies erschwere auch die Strafverfolgung, da die Fake-Pornos nicht schnell genug identifiziert werden könnten. Problematisch sei zudem die Anonymität der Täter:innen – und die Schnelllebigkeit des Internets: „Deepfakes lassen sich in Sekundenschnelle anonym verbreiten. Die Behörden haben kaum eine Chance, da hinterher zu kommen“, sagt die Politikwissenschaftlerin.
Dass Menschen mithilfe von Deepfake-Pornos erpresst und unterdrückt würden, sei ein globales Problem, erklärt Maria Pawelec. Vereinzelte hätten Staaten nun begonnen, gesetzliche Regulierungen für Deepfakes ins Leben zu rufen. Darunter etwa der US-amerikanische Bundesstaat Kalifornien und Großbritannien. Bisher stehe man bei Deepfake-Pornos vor Gesetzeslücken – so auch in Deutschland: „Häufig wird argumentiert, dass es sich bei den Bildern und Videos ja nicht um echte Nacktaufnahmen handelt.“ Die EU habe nun jedoch eine neue Richtline zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt auf den Weg gebracht. Diese umfasse auch die Kirminalisierung nicht-einvernehmlicher Deepfakes.
Maria Pawelec sieht allerdings auch die Plattformen und App-Stores in der Verantwortung, auf denen die Codes und Apps angeboten würden: „Diese Anbieter sind die Gatekeeper für die Technologie. Hier stärker zu regulieren, wäre zumindest ein kleiner Schritt.“
Doch auch neue Gesetze würden das Problem lediglich abschwächen – nicht aber aus der Welt räumen, gibt die Politikwissenschaftlerin zu bedenken: „Das Schlimme an den Pornos ist, dass sie nicht einmal täuschend echt aussehen müssen. Wenn wir die Person in dem Video kennen, bleiben uns diese Bilder automatisch im Gedächtnis.“
Weitere Leseempfehlungen: Betroffene Frauen erzählen ihre Geschichten