Face Swap Apps: Hilfe, mein Gesicht ist in einem Porno!
Eine erste Google-Recherche zu Face Swap Apps zeigt erstmal auf Seite 1 nur Artikel, die verschiedene Apps vorstellen, sie vergleichen und die besten empfehlen: „Mega lustig: Mit der App fährst du bei Fast and Furious mit” oder „Verarsche deine Freund*innen: Setze ihre Gesichter in andere Fotos ein!” Kann witzig sein, bis … das eigene Gesicht plötzlich in einem fremden Nacktbild oder Porno-Video zu sehen ist:
Eine junge Journalistin, die viel über Feminismus und Gleichberechtigung schreibt, hat gerade ihr erstes Buch veröffentlicht.
Plötzlich schreibt ihr ein Freund: „Hey, ich habe dich gerade gegoogelt, guck mal!” Ihr Gesicht taucht in einem Hardcore-Porno auf, in welchem sie erniedrigt und gedemütigt wird. Übelkeit, Schock, Scham: Das Video ist viral gegangen.
Zwar bekommt sie wegen ihrer politischen Stellungnahmen bereits viel Hass auf Twitter von Rechten und Antifeminist*innen, doch geht es mit diesem Video erst richtig los. Gewaltverherrlichende Hasskommentare und Screenshot des Videos erreichen sie im Sekundentakt. Ihre Buchveröffentlichung ist in diesem Shitstorm völlig untergegangen und ihre Seriosität untergraben. Sie kann nicht mehr und zieht sich aus der Öffentlichkeit zurück.
Das kann uns allen passieren. User*innen können mit Face Swap Apps innerhalb kürzester Zeit solche Fälschungen erstellen. Sie missbrauchen dabei fremde Fotos und Videos – eine Form der digitalen Gewalt, die für Betroffene schwere Folgen haben kann.
Was sind Face Swap Apps?
Face Swap Apps ermöglichen es User*innen, Audio- und Videodateien mit dem Smartphone zu fälschen. Künstliche Intelligenz ermöglicht es, mit Programmen oder Apps Gesichter in fremde Fotos oder Videos zu setzen. Diese gefälschten Fotos oder Videos werden Deepfakes genannt. Mit Face Swap Apps gibt es nun eine massentaugliche Deepfake-Technik – denn sie sind für alle Menschen zugänglich und leicht bedienbar. Das macht sie so gefährlich.
Ein Social-Media-Profilbild und eine Face Swap App reichen mittlerweile aus, um täuschend echt aussehende Fälschungen von Fotos oder Videos zu erstellen. Die Apps gibt es ganz offiziell und kostenlos in App-Stores. Das ist erstmal nicht schlimm. Leider gibt es aber von den App-Betreibenden, von Plattformen oder der Politik kaum Richtlinien dazu, wie und von wem diese Fälschungen erstellt werden dürfen. Das führt zum Missbrauch dieser Technologie, der Betroffene und unsere Gesellschaft gefährdet. Dass das eigene Bild ohne Einverständnis in fremde Kontexte und Szenen eingesetzt wird, kann durch diese Apps alle treffen. Doch vor allem Frauen sind von solchen Fakes betroffen.
Bedrohung: Sexualisierte Deepfakes
Warnungen vor den Gefahren der Deepfake-Technologien werden seit Jahren immer lauter. Denn Desinformation und politische Propaganda können durch den Missbrauch solcher Technologien noch leichter mit Bild- und Videomaterial unterfüttert werden.
Mehr über die Technologie und die Gefahren von Deepfakes erfahrt ihr in unserem Online-Magazin.
Über sexualisierte Deepfakes wird, so eine Untersuchung von Netzpolitik.org, aber noch kaum gesprochen. Gerade Frauen werden immer wieder mit Hilfe von Face Swap Apps in Pornos hinein manipuliert. Dass Frauen besonders betroffen sind, ist in den Apps selbst verwurzelt. Denn die Apps sind auf den weiblichen Körper ausgerichtet, die Deepfake-Erkennungssysteme dagegen auf männliche (European Parliamentary Research Service 2021).
Die Fakes werden veröffentlicht, verbreiten sich rasend schnell und sind zum Teil frei im Internet zugänglich. Da die Technologien kontinuierlich besser werden, sehen die Fälschungen immer echter aus. Somit wird es für Betroffene immer schwerer, die Falschheit zu beweisen und ihren Ruf wieder herzustellen. Selbst wenn ein Deepfake aufgedeckt und gelöscht wird, bleiben die Bilder in den Köpfen der Menschen und die Darstellungen können auch Jahre später wieder auftauchen.
Deutschland- und weltweit sind Frauen von bildbasierter sexualisierter Gewalt, einer Art von digitaler Gewalt, betroffen:
- Politikerinnen unabhängig von Parteizugehörigkeit,
- Journalistinnen,
- Schriftstellerinnen,
- Schauspielerinnen,
- Nachrichtensprecherinnen,
- Sängerinnen,
- Creatorinnen und
- Privatpersonen.
Die Szene hinter Deepfake-Pornos ist riesig und so vielfältig sind auch die Gefahren.
Gefälschte Darstellung – reale Folgen!
Gerade Frauenhass und misogyne Weltansichten treiben die Täter*innen an. Die Deepfakes reichen von Bikinibildern bis hin zu Hardcore-Pornos. So unterschiedlich die Manipulationen auch sein mögen, die Folgen für Betroffene sind schwerwiegend. Psychische Belastung und Traumatisierung, Scham und Ausgrenzung aus dem Familien- oder Freund*innenkreis sowie Probleme im Job oder bei der Jobsuche sind für Betroffene reale Gefahren.
Diese Folgen bedrohen aber nicht nur die Einzelpersonen, sondern unsere ganze Gesellschaft. Sexualisierte Deepfakes gehören zur bildbasierten sexualisierten Gewalt: Sie stellen bloß, erniedrigen, diskriminieren, bedrohen und schüchtern ein.
Gerade Politikerinnen und Journalistinnen sind immer wieder Ziel der Täter*innen. Das ist eine enorme Bedrohung für unsere Demokratie. (European Parliamentary Research Service 2021). Denn wenn die Würde, Glaubwürdigkeit und Seriosität von Frauen durch diese verfälschten Darstellungen angegriffen wird, dann ist das ein Angriff auf Meinungsfreiheit, das Persönlichkeitsrecht und unsere Demokratie als Ganzes.
Von Deepfake betroffen, was nun?
Wenn ein Foto von dir ohne Einverständnis in fremde Videos oder Fotos eingefügt wurde, kannst du diesen Schritten folgen, um dich zu schützen und zu wehren:
- Erstelle einen rechtssicheren Screenshot und sichere so viele Beweise wie möglich.
- Melde dich bei uns! Wir beraten dich und können bei einem Privatsphären-Check helfen.
- Kontaktiere die Plattformen und Seiten, auf denen der Deepfake veröffentlicht wurde, und lasse die Fälschung löschen.
- Zeige den Vorfall an!
- Veröffentliche ein Statement und weise daraufhin, dass es eine Fälschung ist und woran dies erkennbar ist.
Wie du Deepfakes erkennst, kannst hier nachlesen.
Ein Update, das hoffen lässt: Es gibt nun eine Software, die deine Bilder vor Missbrauch schützt. Das Programm heißt „Photoguide” und wurde von einem Forschungsteam des Massachusetts Institute of Technology entwickelt.
„Photoguide” verwendet Datenvergiftungstechniken, die die Pixel in einem Bild stören. Das löst ein unsichtbares Rauschen aus. Diese Störung sorgt dafür, dass Bilder nicht mehr ohne Fehler in andere Kontexte gesetzt werden können. Damit kann dein Foto nicht mehr realitätsnah in ein Nacktbild kopiert werden. Bis jetzt gibt es die Software als frei verfügbaren Code. Wir sind gespannt, wie sich der Schutz vor Foto-Manipulation weiterentwickelt.
Wir fordern: Manipulation von Nacktbildern jetzt stoppen!
An allen relevanten Stellen fehlt es an Gesetzen, Schutzmaßnahmen und Grenzen der Deepfakes-Erstellung. Das kann und darf nicht sein! Deshalb starteten wir im November 2022 unsere Petition „Nackt im Netz: Porno-Manipulation jetzt stoppen!” und stellten damit folgende Forderungen an Bundesdigitalminister Volker Wissing:
Update zu unserer Petition „Nackt im Netz: Porno-Manipulation“
Durch eure Unterstützung haben wir es geschafft, insgesamt 76.937 Unterschriften für unsere Petition zu sammeln. Dieses starke Ergebnis ist eine klare Aufforderung an die Bundesregierung, gegen die ungewollte Porno-Manipulation aktiv zu werden.
Wir baten Digitalminister Wissing um einen Termin zur Petitionsübergabe. Die Rückmeldung kam schnell: Eine Absage.
Deswegen zogen wir im Oktober 2023 gemeinsam mit Unterstützer*innen und unseren Forderungen vor das Digitalministerium. Daniela Kluckert, parlamentarische Staatssekretärin des Ministeriums, hat die Unterschriften angenommen. Jetzt muss die Bundesregierung handeln!
Wir bleiben dran und stellen sicher, dass die Manipulation von Nacktaufnahmen gestoppt wird. Das neue Gesetz gegen digitale Gewalt wird derzeit im Bundestag verhandelt und 76.937 Menschen bauen darauf, dass der Schutz gegen diese Gewalt endlich umgesetzt wird.