Deepfakes & Digitale Gewalt: 3 Möglichkeiten, um uns zu wehren
Erfahre, wie du dich mit Tools wie Glaze, Nightshade und StopNCII gegen Deepfakes und digitale sexualisierte Gewalt schützen kannst.
Spätestens seit März 2026, als die Aktivistin Collien Fernandes mit ihrer Erfahrung von digitaler sexualisierter Gewalt an die Öffentlichkeit ging, ist klar: Deepfakes sind keine technische Spielerei, sondern eine Waffe, die gezielt gegen Frauen und marginalisierte Gruppen eingesetzt wird.
Inhaltsverzeichnis
Wir beim Digital Empowerment Project (DEP) stehen in voller Solidarität mit Collien Fernandes und allen Betroffenen. Wir glauben euch. In Kooperation mit Pinkstinks und der Feminist Law Clinic setzen wir uns im Rahmen des Schwerpunkts „Sicherheit aus feministischer Sicht“ dafür ein, digitale Souveränität greifbar zu machen und sichere Schutzräume aufzubauen.
Deepfakes – durch Künstliche Intelligenz (KI) manipulierte oder generierte Medien – erzeugen oft ein Gefühl der Hilflosigkeit. Doch wir sind nicht machtlos. Dieser Artikel erklärt, wie diese Technologie funktioniert, warum sie ein feministisches Thema ist und welche konkreten technischen Tools du nutzen kannst, um deine Bilder aktiv zu schützen.
Was sind Deepfakes und warum sind sie eine Waffe der Gewalt?
Deepfakes (ein Kofferwort aus „Deep Learning“ und „Fake“) nutzen fortschrittliche Methoden der KI, um Gesichter, Stimmen und Körper in Videos oder Bildern täuschend echt zu ersetzen. Die Hürden für die Erstellung sind bis 2026 drastisch gesunken. Einfache browserbasierte Plattformen ermöglichen es mittlerweile jedem, mit minimalem Aufwand synthetische Medien zu erzeugen.
Trends und Statistiken 2026
Das Kernproblem ist der systemische Missbrauch. Laut aktuellen Analysen richten sich 99 % aller im Netz verfügbaren Deepfakes gegen Frauen. Davon entfallen fast 98 % auf nicht-konsensuale Deepfake-Pornografie. Diese Form der Gewalt zielt darauf ab, Betroffene zu demütigen oder mundtot zu machen. In der Folge ziehen sich viele Frauen aus dem öffentlichen Diskurs zurück – ein Phänomen, das wir als „Chilling Effect“ bezeichnen.
Proaktiver Schutz, anstatt nur zu reagieren: Deine Bilder für KI „ungenießbar“ machen
Im Jahr 2026 reicht es oft nicht mehr aus, Profile nur auf „privat“ zu stellen. Angreifer:innen nutzen oft bereits existierende Bilder für ihre Manipulationen. Hier setzen Tools zur „Daten-Vergiftung“ (Data Poisoning) an und zur proaktiven Verhinderung der Verbreitung an.
Glaze & Nightshade – Schutz vor KI-Training und Manipulation
Diese Tools wurden entwickelt, um Künstler:innen und Privatpersonen die Kontrolle über ihre visuellen Daten zurückzugeben:
Glaze: Dieses Tool legt eine für das menschliche Auge fast unsichtbare Schicht über dein Foto. Diese Schicht verändert die Art und Weise, wie eine KI den „Stil“ oder die Merkmale deines Gesichts interpretiert. Wenn jemand versucht, dein „geglaztes“ Foto als Basis für ein Deepfake zu nutzen, erkennt die KI die Merkmale falsch, was zu verzerrten oder unbrauchbaren Ergebnissen führt.
Nightshade: Während Glaze eher defensiv schützt, ist Nightshade offensiver. Es „vergiftet“ die Bilddaten so, dass KI-Modelle, die diese Bilder ohne Erlaubnis zum Training nutzen, langfristig Schaden nehmen (z.B. lernt die KI, dass ein „Gesicht“ wie ein „Auto“ aussieht).
StopNCII – Schutz vor Missbrauch
StopNCII: Diese Plattform ermöglicht es dir, proaktiv gegen die Verbreitung von intimen Bildern (Non-Consensual Intimate Imagery) vorzugehen. Das Tool erstellt direkt auf deinem Endgerät einen digitalen Fingerabdruck (Hash) deiner Bilder. Nur dieser anonyme Hash wird mit teilnehmenden Plattformen geteilt. Wenn jemand versucht, das entsprechende Bild hochzuladen, erkennt die Plattform den Hash und blockiert den Upload sofort, ohne dass dein Originalbild jemals deinen Rechner verlassen muss.
DEP-Empfehlung: Nutze diese Tools vor dem Hochladen von Porträtfotos auf öffentliche Plattformen. Sie sind ein wichtiger Baustein deiner digitalen Resilienz.
Metadaten-Hygiene und Zugriffskontrolle
Neben dem Schutz der Bildpixel ist der Schutz des Kontextes entscheidend:
Exif-Cleaner: Entferne vor dem Teilen von Fotos alle Metadaten (GPS-Koordinaten, Kameratyp). Dies verhindert, dass Täter:innen zusätzliche Informationen über deinen Aufenthaltsort sammeln.
Self-Hosting mit Nextcloud: Anstatt Bilder in US-Clouds zu speichern, empfehlen wir das Hosting auf eigenen Instanzen. In unserem Video stellen wir dir die Nextcloud vor, mit der du die volle Kontrolle über deine Daten behältst
⚡Action Box: Deine 5 Schritte für mehr Bild-Sicherheit
Wenn du proaktiv deine Bilder und Daten schützen willst:
Nutze Glaze, um Porträtfotos für KI-Manipulationen schwerer lesbar zu machen.
Entferne Metadaten mit Tools wie ExifTag vor jedem Upload.
Prüfe die Nutzung von StopNCII.org, um präventiv Hashes deiner Bilder zu hinterlegen.
Vermeide das Teilen von hochauflösendem Porträtmaterial auf ungesicherten Plattformen.
Buche eine Beratung beim Digi-Coach, wenn du Hilfe bei der Einrichtung von Open-Source-Tools benötigst.
Hilfe im Ernstfall: Was tun, wenn ein Deepfake auftaucht?
Wenn du Opfer eines Deepfakes geworden bist, ist schnelles Handeln wichtig. Die Schuld liegt niemals bei dir.
Beweise sichern: Erstelle Screenshots der URL, des Inhalts und der Kommentare.
Melden & Löschen: Nutze die Meldefunktionen der Plattformen. Viele haben seit 2025 spezialisierte Prozesse für KI-generierten Missbrauch.
Rechtliche Schritte: Kontaktiere die Feminist Law Clinic. Das geplante „Hubig-Gesetz“ (März 2026) stellt das Erstellen von Deepfakes unter Strafe – sie unterstützen dich dabei, dein Recht durchzusetzen.
Der feministische Blick: „Sicherheit“ neu denken
„Deepfakes brechen die digitale Souveränität auf brutalste Weise. Unser Ziel ist es, technische Komplexität abzubauen und über Werkzeuge wie Glaze oder Nightshade aufzuklären, um Schutzräume im Netz wiederherzustellen.“
In unserer Allianz verbinden wir drei wesentliche Säulen:
Pinkstinks: Politische Mobilisierung und Sichtbarkeit.
Feminist Law Clinic: Kostenfreie Rechtsberatung bei digitaler Gewalt.
DEP: Technische Expertise und Infrastruktur für digitale Unabhängigkeit.
FAQ
FAQ – Häufig gestellte Fragen zu Deep Fakes
Was sind Deepfakes?
Deepfakes (ein Kofferwort aus „Deep Learning“ und „Fake“) nutzen fortschrittliche Methoden der KI, um Gesichter, Stimmen und Körper in Videos oder Bildern täuschend echt zu ersetzen.
Was ist der Unterschied zwischen Glaze und einem Wasserzeichen?
Ein Wasserzeichen ist für Menschen sichtbar und soll Urheberschaft markieren. Glaze ist für Menschen fast unsichtbar, manipuliert aber die mathematische Struktur des Bildes, die nur für KI-Algorithmen relevant ist.
Kann Glaze mein Bild komplett vor Deepfakes schützen?
Kein Tool bietet 100 % Schutz, da sich KI-Modelle ständig weiterentwickeln. Aber Glaze erhöht den Aufwand für Täter:innen massiv und führt oft zu qualitativ minderwertigen Fälschungen, die leichter als solche erkennbar sind.
Ist die Nutzung von Nightshade legal?
Ja. Nightshade ist ein Werkzeug zum Schutz des eigenen geistigen Eigentums und der eigenen Persönlichkeitsrechte vor unbefugtem Datencrawling.
Was mache ich, wenn ein Deepfake auf einer Seite ohne Impressum auftaucht?
In solchen Fällen helfen Organisationen wie HateAid . Sie haben Erfahrung damit, Löschungen auch auf schwierigen Plattformen oder über Suchmaschinen-Provider zu erwirken.
Wo finde ich die Feminist Law Clinic?
Du findest sie über ihre Website . Sie berat en kostenlos und feministisch.
Externe Quellen & Weiterführende Links
Pinkstinks Germany e.V.: https://www.pinkstinks.de/
StopNCII.org – Schutz vor Intimbild-Missbrauch: https://stopncii.org/
Glaze Project (University of Chicago): https://glaze.cs.uchicago.edu/
HateAid – Beratung bei digitaler Gewalt: https://hateaid.org/
- Nightshade – (University of Chicago): https://nightshade.cs.uchicago.edu/whatis.html
Dieser Leitfaden ist ein Living Document. Eure Erfahrungen als Gruppen, euer Feedback und eure Ergänzungen sind willkommen. Schreibt uns!
Hier sind die Links und Quellen, die als Grundlage für unsere Faktenprüfung der Analyse (Stand März 2026) dienten:
1. Statistiken zu NCII und Deep-Fake-Betriffenheit
- Quelle: Französisches Außenministerium (France Diplomatie) – Gemeinsame Erklärung zu NCII.
- Beleg: Bestätigt die Raten von 98 % (sexueller Inhalt) und 99 % (weibliche Opfer).
- Link: Joint Statement on NCII abuse (Dezember 2025/März 2026)
2. Wirtschaftliche Schäden und Trends 2026/2027
- Quelle: Keepnet Labs / Deloitte Center for Financial Services.
- Beleg: Prognose von 40 Mrd. $ Verlusten durch KI-Betrug bis 2027.
- Link: Deepfake Statistics & Trends 2026 – Keepnet Labs
3. Grok-Krise auf X (Januar/Februar 2026)
- Quelle: EDRi (European Digital Rights) – Pressemitteilung zur EU-Untersuchung.
- Beleg: Dokumentiert die Erstellung von 3 Mio. Bildern in 11 Tagen durch den Grok-Bot.
- Link: EDRi calls for action as EU probes X’s Grok (Januar 2026)
4. EU AI Act – Umsetzungsfrist August 2026
- Quelle: Europäische Kommission / Legal Nodes.
- Beleg: Bestätigt das Inkrafttreten der Transparenzpflichten (Art. 50) für Deep Fakes im August 2026.
- Link: KI-Gesetz: Gestaltung der digitalen Zukunft Europas
- Link: EU AI Act Compliance Roadmap 2026 – Legal Nodes
5. Deutsche Gesetzeslage (§ 184k StGB & Digitales Gewaltschutzgesetz)
- Quelle: Händlerbund / Justizministerium Brandenburg (Meldungen vom 23. März 2026).
- Beleg: Reform des § 184k StGB zur Erfassung von pornografischen Deep Fakes.
- Link: Deepfakes & digitale Gewalt: Was künftig strafbar ist (März 2026)
- Link: Brandenburg unterstützt Schutz vor Deepfakes (März 2026)
6. Schutz-Tools: StopNCII.org
- Quelle: StopNCII.org / SaferInternet UK.
- Beleg: Bestätigt die Entfernungsquote von über 90 % und die Skalierung des Tools.
- Link: StopNCII.org Offizielle Seite
- Link: Zwei Jahre StopNCII.org – Erfolgsbilanz
7. Therapeutischer Einsatz (Fallstudie Meg/Jill)
- Quelle: Vox Magazine / Agnes van Minnen (Universität Amsterdam).
- Beleg: Pilotstudien zur Konfrontationstherapie mittels Deep-Fake-Avataren.
- Link: Professor lets victims talk to a deepfake to process trauma
Alle Quellen wurden auf ihre Aktualität (Publikationsdatum oder letztes Update innerhalb der letzten 3 Monate, sofern es sich um laufende Gesetzgebungsverfahren oder aktuelle Berichte handelt) geprüft.