Ihre Situation verstehen
Was Sie vorbereiten müssen
- ✓Beweise des Deepfake: URLs, Screenshots (mit Zeitstempel), heruntergeladene Kopien wenn möglich
- ✓Nachweis, dass der Inhalt gefälscht ist: Originalversionen, Alibi-Nachweise
- ✓Plattform, auf der der Inhalt veröffentlicht ist: Name, URL, etwaige Antworten auf Löschungsanträge
- ✓Identität des Täters (falls bekannt): Name, Account oder identifizierende Informationen
- ✓Zeitablauf: wann Sie erstmals vom Deepfake erfahren haben
- ✓Belege für Schäden: seelische Belastung, finanzieller Schaden, Rufschädigung, Screenshots der Verbreitung
- ✓Ihre Identifikation (zum Nachweis, dass Sie die dargestellte Person sind)
- ✓Aktenzeichen der Polizei (falls bereits Anzeige erstattet)
⏰ Frist
Handeln Sie sofort. Für Plattform-Löschungen haben die meisten Plattformen beschleunigte Prüfverfahren für nicht einvernehmliche intime Bilder und Deepfakes. Für Strafanzeigen variieren Verjährungsfristen nach Jurisdiktion, betragen aber typischerweise mehrere Jahre. Für DSGVO-Beschwerden handeln Sie zeitnah.
🏛️ Behörde
Strafverfolgung: Polizei (Strafanzeige bei nicht einvernehmlichen intimen Bildern, Betrug, Belästigung, Verleumdung - in DE: § 201a StGB, § 187 StGB). Plattform: Melden Sie über die plattformeigenen Meldetools. Nationale Datenschutzbehörde: für DSGVO-Verstöße (Verarbeitung biometrischer Daten ohne Einwilligung, Art. 9). Nationale KI-zuständige Behörde: für KI-Verordnung-Transparenzverstöße (ab August 2026). Cyberkriminalitätsstellen: Europol EC3, nationale Cyberkriminalitätsabteilungen, in DE: ZIT (Zentralstelle zur Bekämpfung der Internetkriminalität).
⚖️ Rechtsgrundlage
EU-KI-Verordnung Art. 50(4): ab 2. August 2026 müssen Betreiber von Deepfake-KI-Systemen offenlegen, dass Inhalte künstlich erzeugt oder manipuliert wurden. KI-Verordnung Art. 99: Sanktionen für Transparenzverstöße werden Bußgelder bis 7,5 Mio. EUR oder 1,5 % des weltweiten Umsatzes umfassen. DSGVO Art. 9: Verarbeitung biometrischer Daten erfordert ausdrückliche Einwilligung. DSGVO Art. 17 und 79: Recht auf Löschung und Recht auf gerichtlichen Rechtsbehelf. Digital Services Act (DSA): Plattformpflichten für illegale Inhalte. Italien Gesetz 132/2025: spezifische Straftat für unrechtmäßige Deepfake-Verbreitung (1-5 Jahre Freiheitsstrafe). § 201a StGB (DE): Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen. Nationales Recht zu: Beleidigung, Verleumdung, Identitätsdiebstahl, Urheberrecht, Persönlichkeitsrechte.
Experten-Tipps
- 1Sichern Sie sofort alle Beweise. Erstellen Sie Screenshots mit Zeitstempel, laden Sie Inhalte herunter wenn möglich, archivieren Sie URLs über die Wayback Machine. Digitale Beweise verschwinden schnell nach einer Meldung.
- 2Melden Sie zuerst bei der Hosting-Plattform - die meisten haben beschleunigte Verfahren für Deepfake-Löschungen, insbesondere bei nicht einvernehmlichen intimen Bildern.
- 3Erstatten Sie Strafanzeige, besonders wenn der Deepfake intime Bilder, Betrug, Drohungen oder Erpressung umfasst. In Deutschland greifen § 201a StGB und § 187 StGB.
- 4Senden Sie einen DSGVO Art. 17 Löschungsantrag an jede Organisation, die den Inhalt hostet. Die Verarbeitung Ihrer biometrischen Daten ohne Einwilligung verstößt gegen DSGVO Art. 9.
- 5Ab dem 2. August 2026 werden die KI-Verordnung Art. 50 Pflichten nach geltendem Recht durchsetzbar. Betreibern, die KI-generierte Inhalte nicht kennzeichnen, drohen dann Bußgelder bis 7,5 Mio. EUR oder 1,5 % des Umsatzes.
- 6Wenn Sie Opfer von Deepfake-Sextortion sind (Zahlungsforderungen zur Entfernung von Inhalten), zahlen Sie nicht. Erstatten Sie sofort Anzeige bei der Polizei und melden Sie bei der Plattform.
- 7Erwägen Sie die Kontaktaufnahme mit HateAid (DE) oder der Opferberatung für Unterstützung bei digitaler Gewalt.
