Betroffenenberatung: Leider keine neuen Klient*innen bis 9.12.

Die aktuell hohen Krankheitszahlen sind leider auch an unserem Team nicht vorbeigegangen. Wir können zurzeit nur bestehende Fälle bearbeiten und bis zum 9.12. keine neuen Anfragen annehmen. Auch die offene Sprechstunde entfällt bis dahin. 

Wir möchten dennoch versuchen, dir in dieser Situation zu helfen. Mit folgenden Anlaufstellen & Tipps:  

      

Helft mir!
Schatten auf der Straße mit Handy in der Hand.

Face Swap Apps: Hilfe, mein Gesicht ist in einem Porno! 

Eine erste Google-Recherche zu Face Swap Apps zeigt erstmal auf Seite 1 nur Artikel, die verschiedene Apps vorstellen, sie vergleichen und die besten empfehlen: „Mega lustig: Mit der App fährst du bei Fast and Furious mit” oder „Verarsche deine Freund*innen: Setze ihre Gesichter in andere Fotos ein!” Kann witzig sein, bis … das eigene Gesicht plötzlich in einem fremden Nacktbild oder Porno-Video zu sehen ist: 

Eine junge Journalistin, die viel über Feminismus und Gleichberechtigung schreibt, hat gerade ihr erstes Buch veröffentlicht. 

Plötzlich schreibt ihr ein Freund: „Hey, ich habe dich gerade gegoogelt, guck mal!” Ihr Gesicht taucht in einem Hardcore-Porno auf, in welchem sie erniedrigt und gedemütigt wird. Übelkeit, Schock, Scham: Das Video ist viral gegangen.  

Zwar bekommt sie wegen ihrer politischen Stellungnahmen bereits viel Hass auf Twitter von Rechten und Antifeminist*innen, doch geht es mit diesem Video erst richtig los. Gewaltverherrlichende Hasskommentare und Screenshot des Videos erreichen sie im Sekundentakt. Ihre Buchveröffentlichung ist in diesem Shitstorm völlig untergegangen und ihre Seriosität untergraben. Sie kann nicht mehr und zieht sich aus der Öffentlichkeit zurück. 

Das kann uns allen passieren. User*innen können mit Face Swap Apps innerhalb kürzester Zeit solche Fälschungen erstellen. Sie missbrauchen dabei fremde Fotos und Videos – eine Form der digitalen Gewalt, die für Betroffene schwere Folgen haben kann. 

Was sind Face Swap Apps?

Face Swap Apps ermöglichen es User*innen, Audio- und Videodateien mit dem Smartphone zu fälschen.  Künstliche Intelligenz ermöglicht es, mit Programmen oder Apps Gesichter in fremde Fotos oder Videos zu setzen. Diese gefälschten Fotos oder Videos werden Deepfakes genannt. Mit Face Swap Apps gibt es nun eine massentaugliche Deepfake-Technik – denn sie sind für alle Menschen zugänglich und leicht bedienbar. Das macht sie so gefährlich.   

Ein Social-Media-Profilbild und eine Face Swap App reichen mittlerweile aus, um täuschend echt aussehende Fälschungen von Fotos oder Videos zu erstellen. Die Apps gibt es ganz offiziell und kostenlos in App-Stores. Das ist erstmal nicht schlimm. Leider gibt es aber von den App-Betreibenden, von Plattformen oder der Politik kaum Richtlinien dazu, wie und von wem diese Fälschungen erstellt werden dürfen. Das führt zum Missbrauch dieser Technologie, der Betroffene und unsere Gesellschaft gefährdet. Dass das eigene Bild ohne Einverständnis in fremde Kontexte und Szenen eingesetzt wird, kann durch diese Apps alle treffen. Doch vor allem Frauen sind von solchen Fakes betroffen. 

Bedrohung: Sexualisierte Deepfakes

Warnungen vor den Gefahren der Deepfake-Technologien werden seit Jahren immer lauter. Denn Desinformation und politische Propaganda können durch den Missbrauch solcher Technologien noch leichter mit Bild- und Videomaterial unterfüttert werden.   

Mehr über die Technologie und die Gefahren von Deepfakes erfahrt ihr in unserem Online-Magazin. 

Über sexualisierte Deepfakes wird, so eine Untersuchung von Netzpolitik.org, aber noch kaum gesprochen. Gerade Frauen werden immer wieder mit Hilfe von Face Swap Apps in Pornos hinein manipuliert. Dass Frauen besonders betroffen sind, ist in den Apps selbst verwurzelt. Denn die Apps sind auf den weiblichen Körper ausgerichtet, die Deepfake-Erkennungssysteme dagegen auf männliche (European Parliamentary Research Service 2021).  


Die Studie des Europäischen Parlaments (2021) macht die Gefahren von Deepfake-Technologien in all ihren Facetten sichtbar. Unter Punkt 4.3 könnt ihr mehr zur Verbindung von Deepfakes und Geschlechterungleichheit lesen.

Die Fakes werden veröffentlicht, verbreiten sich rasend schnell und sind zum Teil frei im Internet zugänglich. Da die Technologien kontinuierlich besser werden, sehen die Fälschungen immer echter aus. Somit wird es für Betroffene immer schwerer, die Falschheit zu beweisen und ihren Ruf wieder herzustellen. Selbst wenn ein Deepfake aufgedeckt und gelöscht wird, bleiben die Bilder in den Köpfen der Menschen und die Darstellungen können auch Jahre später wieder auftauchen

Person legt ihren Kopf traurig auf verschränkte Arme.
Die Folgen für Betroffene können sich jahrelang ziehen. Foto: Scopio/Nadia Fusco

Deutschland- und weltweit sind Frauen von bildbasierter sexualisierter Gewalt, einer Art von digitaler Gewalt, betroffen:

  • Politikerinnen unabhängig von Parteizugehörigkeit,  
  • Journalistinnen, 
  • Schriftstellerinnen,  
  • Schauspielerinnen,  
  • Nachrichtensprecherinnen,  
  • Sängerinnen,  
  • Creatorinnen und  
  • Privatpersonen. 

Die Szene hinter Deepfake-Pornos ist riesig und so vielfältig sind auch die Gefahren.  

Gefälschte Darstellung – reale Folgen!

Gerade Frauenhass und misogyne Weltansichten treiben die Täter*innen an. Die Deepfakes reichen von Bikinibildern bis hin zu Hardcore-Pornos. So unterschiedlich die Manipulationen auch sein mögen, die Folgen für Betroffene sind schwerwiegend. Psychische Belastung und Traumatisierung, Scham und Ausgrenzung aus dem Familien- oder Freund*innenkreis sowie Probleme im Job oder bei der Jobsuche sind für Betroffene reale Gefahren.  

Diese Folgen bedrohen aber nicht nur die Einzelpersonen, sondern unsere ganze Gesellschaft. Sexualisierte Deepfakes gehören zur bildbasierten sexualisierten Gewalt: Sie stellen bloß, erniedrigen, diskriminieren, bedrohen und schüchtern ein.  

Gerade Politikerinnen und Journalistinnen sind immer wieder Ziel der Täter*innen. Das ist eine enorme Bedrohung für unsere Demokratie. (European Parliamentary Research Service 2021). Denn wenn die Würde, Glaubwürdigkeit und Seriosität von Frauen durch diese verfälschten Darstellungen angegriffen wird, dann ist das ein Angriff auf Meinungsfreiheit, das Persönlichkeitsrecht und unsere Demokratie als Ganzes.  

Ob analog oder digital: Frauen haben das Recht, ihre Meinung zu äußern, sich von Partner*innen zu trennen, Karriere zu machen oder in die Öffentlichkeit treten, ohne Angst haben zu müssen, Gewalt zu erfahren! 

Von Deepfake betroffen, was nun? 

Wenn ein Foto von dir ohne Einverständnis in fremde Videos oder Fotos eingefügt wurde, kannst du diesen Schritten folgen, um dich zu schützen und zu wehren: 

  • Erstelle einen rechtssicheren Screenshot und sichere so viele Beweise wie möglich. 
  • Melde dich bei uns! Wir beraten dich und können bei einem Privatsphären-Check helfen. 
  • Kontaktiere die Plattformen und Seiten, auf denen der Deepfake veröffentlicht wurde, und lasse die Fälschung löschen. 
  • Zeige den Vorfall an! 
  • Veröffentliche ein Statement und weise daraufhin, dass es eine Fälschung ist und woran dies erkennbar ist. 

Wie du Deepfakes erkennst, kannst hier nachlesen. 

Wir fordern: Manipulation von Nacktbildern jetzt stoppen!

An allen relevanten Stellen fehlt es an Gesetzen, Schutzmaßnahmen und Grenzen der Deepfakes-Erstellung. Das kann und darf nicht sein! Mit unserer PetitionNackt im Netz: Porno-Manipulation jetzt stoppen!” wollen wir: 

Die Manipulation von Nachtaufnahmen stoppen
Die Manipulations-Apps aus den App-Stores verbannen 
Starke Gesetze zur Verhinderung der Manipulation und dem Porno-Missbrauch 

Unterstützt uns und Betroffene, indem ihr unsere Petition unterzeichnet!

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.

    Mehr Infos in unserer Datenschutzerklärung