Unsere vernetzte Welt verstehen

Unfreiwillig nackt: Wie Deepfake Porn sexualisierte Gewalt gegen Frauen verschärft
Ein harmloses Urlaubsfoto wird zur Vorlage für ein täuschend echtes Nacktbild – erstellt mit Hilfe von Künstlicher Intelligenz (KI), verbreitet im Netz, ohne Wissen oder Zustimmung der abgebildeten Person. Was nach Science-Fiction klingt, ist längst Realität: Mit frei verfügbaren KI-Tools entstehen täglich zigtausend sogenannte Deepfake-Pornos. Das sind computergenerierte Bilder oder Videos, die Nacktheit oder sexuelle Handlungen simulieren. Besonders betroffen sind Frauen. Dass gerade sie ins Visier solcher digitalen Übergriffe geraten, ist kein Zufall: Sexualisierte Gewalt ist gesellschaftlich tief verankert – und digitale Technologien verschärfen diese Realität massiv. Dieser Beitrag beleuchtet, wie Deepfake-Porn bestehende Gewaltstrukturen digital fortsetzt und was getan werden muss, um Betroffene besser zu schützen.
Deepfake-Pornografie ist keine isolierte Erscheinung, sondern Teil eines größeren Problems. Sie ist eine besonders tückische Form bildbasierter sexualisierter Gewalt. Damit sind digitale Übergriffe gemeint, bei denen visuelle Mittel eingesetzt werden, um Menschen zu erniedrigen oder ihre sexuelle Selbstbestimmung zu verletzen. Dazu zählen zum Beispiel Upskirting – das heimliche Fotografieren unter Röcke – und das nicht-einvernehmliche Verbreiten intimer Bilder, häufig als „Revenge Porn“ verharmlost oder eben, das hier im Fokus stehende Verbreiten gefälschter, mithilfe von KI generierter vermeintlich intimer Aufnahmen. Die Verbreitung dieser Inhalte erfolgt oft anonym über digitale Nachrichtendienste, Imageboards oder Pornoplattformen. Jede Person kann vonDeepfake-Porn betroffen sein.
Wie belastend solche Angriffe für Einzelne sind, zeigt sich in den Aussagen von Betroffenen. Danielle Citron, Juristin und Professorin an der University of Maryland, nennt Deepfakes eine „invasion of sexual privacy“. Im Interview mit dem Vice-Magazin schildert sie die Worte einer Deepfake-Betroffenen: „Yes, it isn’t your actual vagina, but […] others think that they are seeing you naked”. Citron weiter: „As a deepfake victim said to me – it felt like thousands saw her naked, she felt her body wasn’t her own anymore.“
Der Klick zur Gewalt: Wie leicht Deepfakes heute entstehen
Doch wie entstehen solche Deepfakes überhaupt – und wer steckt dahinter? Was früher noch technisches Spezialwissen, viel Aufwand und leistungsstarke Rechner erforderte, ist heute für nahezu jede Person zugänglich. Deepfake-Bilder und -Videos lassen sich inzwischen mit einem Smartphone und einem einzigen Social-Media-Foto erzeugen. Sogenannte Nudifier-Apps und browserbasierte Anwendungen bieten ihre Dienste offen im Netz an: Nutzer*innen laden ein beliebiges Bild hoch und binnen Sekunden wird die Person darauf vermeintlich entkleidet. Die ersten Ergebnisse sind oft gratis, danach greifen kostenpflichtige Abo-Modelle.
Dabei handelt es sich keineswegs um Einzelfälle. Eine Recherche von netzpolitik.org zeigt: eine Vielzahl an Anbietern generiert täglich tausende solcher Bilder. Der Geschäftsbereich boomt. Auch eine Untersuchung von 404 Media verdeutlicht das Ausmaß: Zahlreiche KI-gestützte Videogeneratoren – besonders von chinesischen Unternehmen – bieten kaum Schutzmechanismen gegen die Erstellung nicht-einvernehmlicher pornografischer Inhalte. Diese Tools werden bereits massenhaft genutzt, um täuschend echte sexualisierte Deepfake-Videos auf Grundlage nur eines Porträtfotos zu erstellen. Die Ergebnisse zirkulieren dann in einschlägigen Online-Communities und sind nach ihrer Veröffentlichung kaum mehr einzufangen.
Von Taylor Swift zu Dir: Die Verschiebung der Zielgruppen
Besonders problematisch an der ganzen Sache: Die meisten dieser Deepfakes betreffen weiblich gelesene Körper. Der Grund liegt unter anderem in den Trainingsdaten, die den Systemen zugrunde liegen. Denn viele der KI-Modelle wurden mit Millionen von Nacktbildern von Frauen trainiert. Die Folge ist eine strukturell verzerrte Technologie, die geschlechtsspezifische Gewalt nicht nur reproduziert, sondern systematisch verstärkt. Das Ergebnis ist eine zutiefst geschlechtsspezifische automatisierte digitale Gewaltform – die sich vor allem gegen Frauen richtet.
Anfangs waren es Personen aus der Öffentlichkeit, die ins Visier solcher Deepfake-Manipulationen gerieten: Schauspielerinnen, Influencerinnen, Politikerinnen. Doch mit der technischen Verfügbarkeit und der Niedrigschwelligkeit der Tools hat sich die Zielgruppe verändert. Heute betrifft sie vor allem Frauen und Mädchen im unmittelbaren sozialen Umfeld: Mitschülerinnen, Kolleginnen, Nachbarinnen. In Spanien etwa wurden 2023 KI-generierte Nacktbilder von Schulmädchen erstellt und in Messenger-Gruppen verbreitet. In Pennsylvania wurde ein Jugendlicher festgenommen, weil er Deepfake-Nacktbilder von Mitschülerinnen erstellt hatte.
Das Ausmaß der Betroffenheit bleibt dabei oft im Verborgenen: Es fehlt an verlässlichen Daten! Viele Betroffene wissen nicht einmal, dass manipuliertes Material von ihnen im Netz kursiert.
Intersektionale Gewaltform mit System
Diese spezielle digitale Form der Gewalt hat System. Die Rechtswissenschaftlerin Danielle Citron beschreibt zutreffend: “Deepfake technology is being weaponized against women by inserting their faces into porn. It is terrifying, embarrassing, demeaning, and silencing. Deepfake sex videos say to individuals that their bodies are not their own and can make it difficult to stay online, get or keep a job, and feel safe.”
Die gezielte sexualisierte Darstellung weiblicher und zunehmend auch queerer Körper ist keine technische Fehlentwicklung – sie ist Ausdruck patriarchaler Verhältnisse und wird gezielt eingesetzt. Nicht selten geschieht dies im Kontext antifeministischer Kampagnen und Incel-Bewegungen, die auf die Einschüchterung und Ausschließung bestimmter Personengruppen zielen.
Studien zeigen, dass über 95% aller Deepfakes sexualisierter Natur sind. Nahezu 100% davon betreffen Frauen. Besonders häufig betroffen sind marginalisierte Gruppen: queere Personen, Schwarze Frauen, trans Frauen. Diese gezielte Form der digitalen Gewalt führt zu einem sogenannten Silencing-Effekt. Damit wird digitale Sichtbarkeit ungleich verteilt und demokratische Teilhabe eingeschränkt.
Digitale Gewalt als Geschäftsmodell
Was viele für ein Nischenphänomen halten, ist längst Teil eines lukrativen Marktes. Plattformen, die Deepfake-Dienste anbieten, agieren meist anonym oder aus dem Ausland. Der Zugang ist niedrigschwellig: Eine E-Mail-Adresse genügt, bezahlt wird per Kreditkarte, GooglePay oder Kryptowährung. Ein einfacher Hinweis (“keine Bildbearbeitung ohne Zustimmung”) dient lediglich der rechtlichen Absicherung. Die Verantwortung wird damit auf die Nutzer*innen abgewälzt, während sich die Anbieter aus der Affäre ziehen. Aber in den Geschäftsmodellen könnte auch ein Hebel liegen, Druck aufzubauen: Der Fall Pornhub zeigt, was wirtschaftlicher Druck bewirken kann. Nachdem Visa und Mastercard 2020 ihre Zusammenarbeit mit der Plattform wegen nicht-einvernehmlicher Inhalte beendeten, waren die Plattformen gezwungen, ihre Upload-Richtlinien und Altersverifikationen massiv zu verschärfen. Ein vergleichbarer Hebel wäre auch gegenüber Deepfake-Plattformen denkbar – etwa durch den (vom Gesetzgeber verpflichtenden) Rückzug von Zahlungsanbietern, Hosting-Services oder Suchmaschinen, die für den Betrieb der digitalen Infrastruktur mitverantwortlich sind.
Rechtliche Lücken und politische Dynamiken
Wirtschaftlicher Druck allein reicht jedoch nicht aus. Auch das Strafrecht stößt im Umgang mit digitalen Deepfakes bislang an seine Grenzen. Zwar existieren in Deutschland Gesetze wie § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs) oder das Recht am eigenen Bild, doch viele Fälle von Deepfake-Pornografie fallen durch das Raster. Die technischen Entwicklungen sind schneller als die Gesetzgebung, Täter*innen bleiben oft anonym und Plattformen agieren außerhalb des europäischen Rechtsraums. Der Deutsche Juristinnenbund (djb) kritisiert die bestehende Gesetzeslage als lückenhaft und fordert einen eigenständigen, diskriminierungssensiblen Straftatbestand für das unbefugte Erstellen und Verbreiten sexualisierter Deepfakes, losgelöst vom klassischen Pornografiestrafrecht. Auch Fortbildungen für Polizei, Justiz und flächendeckend spezialisierte Staatsanwaltschaften im Bereich digitaler Gewalt sind dringend notwendig, um zunächst Bewusstsein zu schaffen und gemeinsam an möglichen Lösungen zu arbeiten.
EU-Regulierung: Erste Schritte, aber kein Allheilmittel
Während die nationale Gesetzgebung hinterherhinkt, bewegt sich auf EU-Ebene einiges. Der Digital Services Act (DSA) verpflichtet Plattformen dazu, gemeldete illegale Inhalte zeitnah zu entfernen – auch Deepfakes, sofern sie eindeutig rechtswidrig sind. Der europäische AI Act sieht Transparenzpflichten vor: Synthetisch erzeugte Inhalte müssen gekennzeichnet werden. Und mit der neuen EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen wird die nicht-einvernehmliche Verbreitung sexualisierter Deepfakes erstmals europaweit unter Strafe gestellt. Die Mitgliedstaaten – auch Deutschland – haben nun bis 2027 Zeit, diese Vorgaben in nationales Recht zu überführen. Ergänzend dazu soll das geplante Gewalthilfegesetz hierzulande den Zugang zu rechtlicher Beratung und Unterstützung erleichtern.
Digitale Selbstverteidigung und gesellschaftliche Verantwortung
Ergänzend zur rechtlichen Regulierung braucht es technische und gesellschaftliche Prävention. Tools wie Glaze oder Nightshade ermöglichen es beispielsweise, Bilder so zu verändern, dass sie für KI unbrauchbar werden. Diese Tools verhindern so, dass Originalbilder für Trainingsdatenbanken oder zur Erzeugung realistischer Deepfakes verwendet werden können; eine Art digitale Tarnkappe gegen Deepfake-Missbrauch. Gleichzeitig muss sich auch die öffentliche Wahrnehmung ändern. Noch immer wird bildbasierte sexualisierte Gewalt verharmlost: Betroffene werden mit Victim Blaming konfrontiert, statt mit Unterstützung. Dabei geht es längst nicht nur um individuelle Schicksale, sondern um strukturelle Ungleichheiten, die sich im digitalen Raum fortsetzen und dort besonders wirkmächtig werden.
Ein komplexes Problem braucht vielschichtige Antworten
Sexualisierte Deepfakes sind mehr als technische Manipulation. Sie sind Ausdruck einer digitalen Machtverschiebung, in der bestehende Ungleichheiten nicht nur reproduziert, sondern verstärkt werden. Die gezielte Entgrenzung von Intimität und Kontrolle trifft vor allem jene, die ohnehin systematisch benachteiligt sind. Deepfakes betreffen uns alle – aber nicht alle gleich. Genau deshalb brauchen wir kollektive Antworten, die nicht nur technisch gedacht sind, sondern feministisch, menschenrechtsbasiert und solidarisch. Denn digitale Gewalt ist kein Randproblem der Netzgesellschaft. Sie ist ihr Prüfstein.
Organisationen wie HateAid, der bff – Frauen gegen Gewalt e.V. und anna nackt setzen sich bereits aktiv gegen uneinvernehmliche sexualisierte Deepfakes ein: Sie unterstützen Betroffene, bieten Anlaufstellen und haben 2023 gemeinsam eine Petition an Digitalminister Volker Wissing überreicht, um besseren Schutz und klare gesetzliche Regelungen zu fordern.
Referenzen
- Reuther, Juliane (2021): Digital Rape: Women Are Most Likely to Fall Victim to Deepfakes https://www.thedeepfake.report/en/09-digital-rape-en [23.05.2025]
- Ajder, Henry; Patrini, Giorgio; Cavalli, Francesco; Cullen, Laurence (2019): The State of Deepfakes: Landscape, Threats, and Impact https://regmedia.co.uk/2019/10/08/deepfake_report.pdf [23.05.2025]
- SecurityHero (2023): 2023 – STATE OF DEEPFAKES – Realities, Threats, and Impact https://www.securityhero.io/state-of-deepfakes/#targeted-individuals [23.05.2025]
- Meineck, Sebastian (2024): Wie Online-Shops mit sexualisierten Deepfakes abkassieren https://netzpolitik.org/2024/ki-nacktbilder-wie-online-shops-mit-sexualisierten-deepfakes-abkassieren/ [23.05.2025]
- Sittig, Jacqueline (2024): Strafrecht und Regulierung von Deepfake-Pornografie https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/556843/strafrecht-und-regulierung-von-deepfake-pornografie/#footnote-target-25 [23.05.2025]
- Cole, Samantha (2019): This Horrifying App Undresses a Photo of Any Woman With a Single Click https://www.vice.com/en/article/deepnude-app-creates-fake-nudes-of-any-woman/
- Deutscher Juristinnenbund (2023): Policy Paper: 23-17 – Bekämpfung bildbasierter sexualisierter Gewalt – Policy Paper https://www.djb.de/presse/stellungnahmen/detail/st23-17
- Kira, Beatriz (2024): Deepfakes, the Weaponisation of AI Against Women and Possible Solutions https://verfassungsblog.de/deepfakes-ncid-ai-regulation/
- AI Act, DSA, DSGVO, KUG, StGB
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Künstliche Intelligenz und Gesellschaft
Chancen gegen Einsamkeit: Wie Pflegeeinrichtungen das Quartier vernetzen
Was hilft gegen Einsamkeit im Alter? Pflegeeinrichtungen schaffen neue Räume für Gemeinschaft und digitale Teilhabe.
Künstliche Intelligenz mit Sinn: Wie sieht die Landschaft gemeinwohlorientierter KI aus?
Ein neuer Datensatz macht die Landschaft gemeinwohlorientierter KI sichtbar: Er erfasst weltweit Projekte, die Public Interest AI einsetzen.
Wer hat diesen Bot eingestellt? Zur Ambivalenz generativer KI im Recruiting
Generative KI im Recruiting sorgt für mehr Effizienz im HR-Bereich. Gehen dabei auch wichtige menschliche Aspekte verloren?