Deepfakes & Digitale Gewalt: 3 Möglichkeiten, um uns zu wehren

Erfahre, wie du dich mit Tools wie Glaze, Nightshade und StopNCII gegen Deepfakes und digitale sexualisierte Gewalt schützen kannst.

Artikel Deepfakes Animation: Ein Porträt einer Frau in einer abstrakten digitalen Umgebung. Über das Gesicht legt sich ein feiner, geometrischer Schimmer aus Linien und Punkten. Eine stilisierte Kameralinse im Hintergrund versucht, das Gesicht zu erfassen, aber die Linien brechen das Signal auf. Durch den Schutz von Glaze wird das Bild für die KI unlesbar und verwischt.

Spätestens seit März 2026, als die Aktivistin Collien Fernandes mit ihrer Erfahrung von digitaler sexualisierter Gewalt an die Öffentlichkeit ging, ist klar: Deepfakes sind keine technische Spielerei, sondern eine Waffe, die gezielt gegen Frauen und marginalisierte Gruppen eingesetzt wird.

Inhaltsverzeichnis

Wir beim Digital Empowerment Project (DEP) stehen in voller Solidarität mit Collien Fernandes und allen Betroffenen. Wir glauben euch. In Kooperation mit Pinkstinks und der Feminist Law Clinic setzen wir uns im Rahmen des Schwerpunkts „Sicherheit aus feministischer Sicht“ dafür ein, digitale Souveränität greifbar zu machen und sichere Schutzräume aufzubauen.

Deepfakes – durch Künstliche Intelligenz (KI) manipulierte oder generierte Medien – erzeugen oft ein Gefühl der Hilflosigkeit. Doch wir sind nicht machtlos. Dieser Artikel erklärt, wie diese Technologie funktioniert, warum sie ein feministisches Thema ist und welche konkreten technischen Tools du nutzen kannst, um deine Bilder aktiv zu schützen.

Was sind Deepfakes und warum sind sie eine Waffe der Gewalt?

Deepfakes (ein Kofferwort aus „Deep Learning“ und „Fake“) nutzen fortschrittliche Methoden der KI, um Gesichter, Stimmen und Körper in Videos oder Bildern täuschend echt zu ersetzen. Die Hürden für die Erstellung sind bis 2026 drastisch gesunken. Einfache browserbasierte Plattformen ermöglichen es mittlerweile jedem, mit minimalem Aufwand synthetische Medien zu erzeugen.

Trends und Statistiken 2026

Das Kernproblem ist der systemische Missbrauch. Laut aktuellen Analysen richten sich 99 % aller im Netz verfügbaren Deepfakes gegen Frauen. Davon entfallen fast 98 % auf nicht-konsensuale Deepfake-Pornografie. Diese Form der Gewalt zielt darauf ab, Betroffene zu demütigen oder mundtot zu machen. In der Folge ziehen sich viele Frauen aus dem öffentlichen Diskurs zurück – ein Phänomen, das wir als Chilling Effect bezeichnen.

Proaktiver Schutz, anstatt nur zu reagieren: Deine Bilder für KI „ungenießbar“ machen

Im Jahr 2026 reicht es oft nicht mehr aus, Profile nur auf „privat“ zu stellen. Angreifer:innen nutzen oft bereits existierende Bilder für ihre Manipulationen. Hier setzen Tools zur „Daten-Vergiftung“ (Data Poisoning) an und zur proaktiven Verhinderung der Verbreitung an.

Glaze & Nightshade – Schutz vor KI-Training und Manipulation

Diese Tools wurden entwickelt, um Künstler:innen und Privatpersonen die Kontrolle über ihre visuellen Daten zurückzugeben:

  • Glaze: Dieses Tool legt eine für das menschliche Auge fast unsichtbare Schicht über dein Foto. Diese Schicht verändert die Art und Weise, wie eine KI den „Stil“ oder die Merkmale deines Gesichts interpretiert. Wenn jemand versucht, dein „geglaztes“ Foto als Basis für ein Deepfake zu nutzen, erkennt die KI die Merkmale falsch, was zu verzerrten oder unbrauchbaren Ergebnissen führt.

  • Nightshade: Während Glaze eher defensiv schützt, ist Nightshade offensiver. Es „vergiftet“ die Bilddaten so, dass KI-Modelle, die diese Bilder ohne Erlaubnis zum Training nutzen, langfristig Schaden nehmen (z.B. lernt die KI, dass ein „Gesicht“ wie ein „Auto“ aussieht).

StopNCII – Schutz vor Missbrauch

  • StopNCII: Diese Plattform ermöglicht es dir, proaktiv gegen die Verbreitung von intimen Bildern (Non-Consensual Intimate Imagery) vorzugehen. Das Tool erstellt direkt auf deinem Endgerät einen digitalen Fingerabdruck (Hash) deiner Bilder. Nur dieser anonyme Hash wird mit teilnehmenden Plattformen geteilt. Wenn jemand versucht, das entsprechende Bild hochzuladen, erkennt die Plattform den Hash und blockiert den Upload sofort, ohne dass dein Originalbild jemals deinen Rechner verlassen muss.

DEP-Empfehlung: Nutze diese Tools vor dem Hochladen von Porträtfotos auf öffentliche Plattformen. Sie sind ein wichtiger Baustein deiner digitalen Resilienz.

Metadaten-Hygiene und Zugriffskontrolle

Neben dem Schutz der Bildpixel ist der Schutz des Kontextes entscheidend:

  • Exif-Cleaner: Entferne vor dem Teilen von Fotos alle Metadaten (GPS-Koordinaten, Kameratyp). Dies verhindert, dass Täter:innen zusätzliche Informationen über deinen Aufenthaltsort sammeln.

  • Self-Hosting mit Nextcloud: Anstatt Bilder in US-Clouds zu speichern, empfehlen wir das Hosting auf eigenen Instanzen. In unserem Video stellen wir dir die Nextcloud vor, mit der du die volle Kontrolle über deine Daten behältst

⚡Action Box: Deine 5 Schritte für mehr Bild-Sicherheit

Wenn du proaktiv deine Bilder und Daten schützen willst:

  1. Nutze Glaze, um Porträtfotos für KI-Manipulationen schwerer lesbar zu machen.

  2. Entferne Metadaten mit Tools wie ExifTag vor jedem Upload.

  3. Prüfe die Nutzung von StopNCII.org, um präventiv Hashes deiner Bilder zu hinterlegen.

  4. Vermeide das Teilen von hochauflösendem Porträtmaterial auf ungesicherten Plattformen.

  5. Buche eine Beratung beim Digi-Coach, wenn du Hilfe bei der Einrichtung von Open-Source-Tools benötigst.

Hilfe im Ernstfall: Was tun, wenn ein Deepfake auftaucht?

Wenn du Opfer eines Deepfakes geworden bist, ist schnelles Handeln wichtig. Die Schuld liegt niemals bei dir.

  1. Beweise sichern: Erstelle Screenshots der URL, des Inhalts und der Kommentare.

  2. Melden & Löschen: Nutze die Meldefunktionen der Plattformen. Viele haben seit 2025 spezialisierte Prozesse für KI-generierten Missbrauch.

  3. Rechtliche Schritte: Kontaktiere die Feminist Law Clinic. Das geplante „Hubig-Gesetz“ (März 2026) stellt das Erstellen von Deepfakes unter Strafe – sie unterstützen dich dabei, dein Recht durchzusetzen.

Der feministische Blick: „Sicherheit“ neu denken

„Deepfakes brechen die digitale Souveränität auf brutalste Weise. Unser Ziel ist es, technische Komplexität abzubauen und über Werkzeuge wie Glaze oder Nightshade aufzuklären, um Schutzräume im Netz wiederherzustellen.“ 

In unserer Allianz verbinden wir drei wesentliche Säulen:

  1. Pinkstinks: Politische Mobilisierung und Sichtbarkeit.

  2. Feminist Law Clinic: Kostenfreie Rechtsberatung bei digitaler Gewalt.

  3. DEP: Technische Expertise und Infrastruktur für digitale Unabhängigkeit.

FAQ

FAQ – Häufig gestellte Fragen zu Deep Fakes

  • Was sind Deepfakes?

    Deepfakes (ein Kofferwort aus „Deep Learning“ und „Fake“) nutzen fortschrittliche Methoden der KI, um Gesichter, Stimmen und Körper in Videos oder Bildern täuschend echt zu ersetzen.

  • Was ist der Unterschied zwischen Glaze und einem Wasserzeichen?

    Ein Wasserzeichen ist für Menschen sichtbar und soll Urheberschaft markieren. Glaze ist für Menschen fast unsichtbar, manipuliert aber die mathematische Struktur des Bildes, die nur für KI-Algorithmen relevant ist. 

  • Kann Glaze mein Bild komplett vor Deepfakes schützen?

    Kein Tool bietet 100 % Schutz, da sich KI-Modelle ständig weiterentwickeln. Aber Glaze erhöht den Aufwand für Täter:innen massiv und führt oft zu qualitativ minderwertigen Fälschungen, die leichter als solche erkennbar sind. 

  • Ist die Nutzung von Nightshade legal?

    Ja. Nightshade ist ein Werkzeug zum Schutz des eigenen geistigen Eigentums und der eigenen Persönlichkeitsrechte vor unbefugtem Datencrawling. 

  • Was mache ich, wenn ein Deepfake auf einer Seite ohne Impressum auftaucht?

    In solchen Fällen helfen Organisationen wie HateAid . Sie haben Erfahrung damit, Löschungen auch auf schwierigen Plattformen oder über Suchmaschinen-Provider zu erwirken. 

  • Wo finde ich die Feminist Law Clinic?

    Du findest sie über ihre Website . Sie berat en kostenlos und feministisch. 

Externe Quellen & Weiterführende Links

Dieser Leitfaden ist ein Living Document. Eure Erfahrungen als Gruppen, euer Feedback und eure Ergänzungen sind willkommen. Schreibt uns!

Hier sind die Links und Quellen, die als Grundlage für unsere Faktenprüfung der Analyse (Stand März 2026) dienten:

1. Statistiken zu NCII und Deep-Fake-Betriffenheit

2. Wirtschaftliche Schäden und Trends 2026/2027

3. Grok-Krise auf X (Januar/Februar 2026)

4. EU AI Act – Umsetzungsfrist August 2026

5. Deutsche Gesetzeslage (§ 184k StGB & Digitales Gewaltschutzgesetz)

6. Schutz-Tools: StopNCII.org

7. Therapeutischer Einsatz (Fallstudie Meg/Jill)

 

Alle Quellen wurden auf ihre Aktualität (Publikationsdatum oder letztes Update innerhalb der letzten 3 Monate, sofern es sich um laufende Gesetzgebungsverfahren oder aktuelle Berichte handelt) geprüft.

Teile diesen Artikel, wenn er dir geholfen hat
Finde uns auf Social Media