Du betrachtest gerade Virtuelle Tarnung & „Digital Afterlife“: Deepfakes als Chance?
Bild: Unsplash / Markus Spiske

Virtuelle Tarnung & „Digital Afterlife“: Deepfakes als Chance?

Täuschung, politische Desinformation und Erpressung – Deepfakes, mithilfe künstlicher Intelligenz erstellte oder manipulierte Bilder, bergen Risiken – und sind umstritten. Aber sie werden auch für positive Zwecke eingesetzt: zum Beispiel, im Kampf für soziale Gerechtigkeit. Wie Deepfakes helfen können, Menschenrechtsverletzungen und politische Morde sichtbar zu machen – und warum die KI-generierten Bilder und Videos auch dabei nicht unumstritten sind.

Ein Mann steht in einem Hinterhof und raucht. Sein Handy klingelt. Statt eines Namens steht auf dem Smartphone-Display nur „A8“. Über den Lautsprecher des Telefons hört man eine Frauenstimme. Ihr Onkel wisse über ihre sexuelle Orientierung Bescheid, sagt sie. Nun erpresse er sie mit diesem Wissen und wolle es ihrem Vater erzählen. Dieser, so erfährt man, ist für die Regierung tätig. „Mein Vater wird das niemals dulden.“, erklärt „A8“. „Er wird mich sicher umbringen, wenn ich versuche, abzuhauen.“ Sie wolle raus aus Russland.

„Wir kommen, halte durch“, antwortet der Mann und legt auf.

DER DOKUMENTARFILM WELCOME TO CHECHNYA

Mit dieser Szenerie startet der 2020 veröffentlichte Dokumentarfilm „Achtung, Lebensgefahr – LGBT in Tschetschenien“. Bei der Anruferin – so erfährt man im Laufe des Films – handelt es sich um die 21-jährige Anya, deren richtiger Name geheim bleiben muss. Sie lebt in Tschetschenien, einer autonomen Republik im Südwesten Russlands. Seit 2017 werden queere Menschen dort massenhaft verfolgt, gefoltert und ermordet – durch die Polizei, aber auch durch eigene Familienangehörige.

Zwei Jahre lang begleitet der Regisseur und Investigativjournalist David France russische LGBTQI+-Aktivist:innen bei ihrer lebensgefährlichen Arbeit. Die Gruppe unterstützt queere Menschen bei der Flucht aus Tschetschenien und verhilft ihnen zu einem Leben außerhalb Russlands. In Sicherheit wahren können sich jedoch auch die Geflüchteten niemals gänzlich. Die Verfolgungen reichen bis über die tschetschenischen Landesgrenzen hinaus.

Einige der gezeigten Aktivist:innen wurden nach der Veröffentlichung selbst zu Flüchtlingen und mussten Russland verlassen, wie unter anderem der Tagesspiegel berichtete.

IDENTIÄTSVERSCHLEIERUNG MITHILFE VON DEEP-LEARNING

Anonymisiert dank KI: Deepfake-Technologie machte es möglich, dass der Dokumentarfilm von David France verfolgte Personen ganz ohne störende Pixel oder verwischte Gesichter zeigen konnte.

Im Laufe des Films sind mehr als 20 Personen zu sehen – unter anderem in originalen Handyaufnahmen, die grausame Szenen und Gewalttaten zeigen. Um die Identität ihrer Protagonist:innen unkenntlich zu machen, ließen sich France und sein Filmteam etwas Besonderes einfallen: Die Gesichter der meisten Aktivist:innen und Betroffenen im Film wurden mittels Deepfake-Technologie ausgetauscht. Rund 20 Personen der New Yorker LGBTQ+-Community ‚liehen‘ den Protagonist:innen dafür ihr Gesicht. Auch die Stimmen der Menschen wurden bearbeitet.

Die ursprüngliche Mimik und Körpersprache blieben dank der Deepfake-Technologie erhalten. In einem Gespräch mit der Menschenrechtsorganisation WITNESS und dem Massachussets Institute of Technoloy (MIT) erklärte France, er habe vor allem die Emotionen und Ausdrucksweisen der Menschen erhalten wollen. Dies sei bei verpixelten oder verzerrten Gesichtern nicht möglich. In der Technologie sieht der Regisseur vor allem eine Chance für Dokumentarfilme: Die Deepfake-Technologie ermögliche es, „dass Menschen, die unsägliches Leid erlitten haben und weiterhin erleiden, ihre Stimme zurückfordern können“, sagte France.

GETÖTETER JOURNALIST FORDERT ALS DEEPFAKE GERECHTIGKEIT

Deepfakes lassen Tote wieder aufleben. In St. Petersburg im US-Bundesstaat Florida zum Beispiel erweckte das Salvador Dalí Museum den Künstler mithilfe der Technologie zum Leben. Mit einem verschmitzten Lächeln begrüßte Salvador Dalí die Museumsbesucher:innen in einem Video.

Hinter dem Deepfake-Video des ermordeten Journalisten Javier Valdez Cárdenas stand die mexikanische NGO Propuesta Cívica, die sich für die Rechte von Medienschaffenden in ihrem Land einsetzt.

Ein KI-generiertes Video mit einer wesentlich ernsteren Tonalität ging 2020 um die Welt: Die NGO Propuesta Cívica ließ darin Javier Valdez Cárdenas ‚aufleben‘, einen mexikanischen Investigativjournalist, der am 15. Mai 2017 auf offener Straße im Bundesstaat Sinaloa im Westen Mexikos erschossen wurde. Die mexikanische NGO ließ Valdez Cárdenas im Namen aller in Mexiko getöteten Journalist:innen sprechen. „Ich habe keine Angst, weil ich nicht zweimal getötet werden kann“, sagte die KI-generierte Version des Journalisten in dem Video und forderte den 2020 noch amtierenden Präsidenten Mexikos, Andrés Manuel López Obrador, auf, seinen eigenen und die Morde an seinen Kolleg:innen aufzuklären.

Javier Valdez Cárdenas berichtete vor allem für die Investigativ-Zeitung Riodoce, die er 2003 mitbegründete. Außerdem war er in Sinaloa als Korrespondent für die Zeitung La Jornada tätig, die ihren Sitz in Mexiko-City hat. Valdez Cárdenas berichtete vor allem über Themen wie Drogenhandel und organisierte Kriminalität – was als das Hauptmotiv für seine Ermordung galt. Die mutmaßlichen Täter:innen konnten identifziert und gefasst werden und sollen im Auftrag des Sinaloa-Drogenkartells gehandelt haben.

Laut Reporter ohne Grenzen ist Mexiko auch heute noch eines der gefährlichsten Länder für Medienschaffende. Im Jahr 2024 zählte die Organisation fünf Tötungen von Journalist:innen in Mexiko.

ZWISCHEN IDENTITÄTSSCHUTZ UND DESINFORMATION

Im Mai 2023 stand Amnesty International in der Kritik. Wie etwa die britische Zeitung The Guardian berichtete, hatte die Menschenrechtsorganisation auf ihren Social-Media-Kanälen KI-generierte Bilder veröffentlicht, die auch als solche benannt worden waren. Die Bilder waren veröffentlich worden, um die 2021 in Kolumbien andauernden Proteste gegen die Regierung zu bebildern und die Gewalt aufzuzeigen, mit welcher die Polizei dabei gegen die Protestierenden vorgegangen war. Laut The Guardian erklärte die Organisation, sie hätte einerseits die Identität der Protestierenden schützen, andererseits aber auch die dokumentierten Menschenrechtsverletzungen darstellen wollen.

Laut dem Bericht äußerten vor allem Fotojournalist:innen Kritik an der Veröffentlichung der KI-generierten Bilder – darunter auch Juancho Torres. Dieser erklärte gegenüber The Guardian, die KI-generierten Bilder würden die Realität verfälschen und Desinformation befeuern. Außerdem, so kritisierte Torres, untergrabe die Menschenrechtsorganisation dadurch die gefährliche Arbeit zahlreicher Journalist:innen vor Ort in Kolumbien.

GEFAHR DER UNGLAUBWÜRDIGKEIT

Doch wo verläuft die Grenze zwischen kreativem Aktivismus und Täuschung? Die meisten online existierenden Deepfakes sind nicht-einvernehmliche Pornos. Außerdem stehen die künstlichen Bilder und Videos vor allem in der Kritik, politische Desinformationen zu verbreiten. Die erwähnte Kampagne von Amnesty International könnte daher auch dafür sorgen, dass die Menschenrechtsorganisation an Glaubwürdigkeit verliert. Das merkte auch die Zeitung The Guardian im erwähnten Artikel an.

Ähnliches geben auch Maria Pawelec und Cora Bieß in ihrem Buch „Deepfakes“ zu bedenken. Die zunehmende Präsenz von Deepfakes in der Öffentlichkeit habe das Phänomen der „Lügner:innen-Dividende“ hervorgebracht:

„Personen, die wegen bestimmter Äußerungen oder Handlungen in der Kritik stehen, könnten zunehmend einfach behaupten, die fragliche Datei sei ein Deepfake. Deepfakes können es somit Lügner:innen leichter machen, die Wahrheit zu negieren.“

Somit könnte wohl auch das Bildmaterial in Dokumentarfilmen von politischen Gegner:innen als ‚Fake‘ abgehandelt werden.

An empirischer Forschung zu prosozialen Deepfakes mangelt es derzeit noch. Eine Studie aus den USA etwa untersuchte, wie „Wiederbelebungs“-Deepfakes in sozialen Kontexten auf Menschen wirken. Die Forschenden kamen unter anderem zu dem Ergebnis, dass die Videos zwar Aufmerksamkeit und Überraschung hervorriefen, zum Teil jedoch auch das Gefühl erzeugten, die Toten würden „entweiht“. Reale Videos führten außerdem zu einer stärkeren Identifikation und Mitgefühl mit den dargestellten Personen als KI-generierte Videos.

Deepfakes bleiben also ambivalent – auch im Kampf um soziale Gerechtigkeit. Doch vielleicht kann in diesem Kontext auch Sprache Abhilfe schaffen: David France etwa merkte im Gespräch mit WITNESS und dem MIT an, der Begriff ‚Deepfake‘ trage zum schlechten Image der Technologie bei. Ihm jedoch habe sie es ermöglicht, „eine Wahrheit“ zu erzählen, die ansonsten verborgen geblieben wäre.

Für den von ihm initiierten, positiven Einsatzzweck schlug der Regisseur daher einen anderen Begriff vor: „Deep True“.

Schreibe einen Kommentar