Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da!

Schreibe eine E-Mail an:

beratung@hateaid.org 

Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Di 15 – 18 Uhr | Do 16 – 19 Uhr

Chatte mit uns:* Mi 15 – 18 Uhr | Fr 11 – 14 Uhr

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Erstatte direkt eine Anzeige! 

 



Helft mir!
Foto einer Person mit einem Gesichtserkennungssoftware auf dem Gesicht.

Realität oder Fake? Bedrohung durch Deepfakes

Haben wir nicht alle schon einmal darüber gelacht, wenn unser Gesicht durch einen Instagram-Filter auf einen tanzenden Weihnachtself gesetzt wurde? Oder wenn wir mit dem Gesicht von Kim Kardashian in unserer Story über den letzten Einkauf sprechen?

Was passiert aber, wenn wir unser Gesicht plötzlich in einem Porno wiederfinden? Oder wenn demokratische Politiker*innen in einem echt erscheinenden Video Kriege verherrlichen? Deepfakes, gefälschte Fotos, Audio- oder Video-Dateien, sehen immer echter aus und es wird immer einfacher, sie zu erstellen. 

Was sind Deepfakes?

Deepfakes, aus dem englischen Deep Learning und Fake, sind Video- oder Audio-Dateien, die mithilfe von künstlicher Intelligenz manipuliert werden. Algorithmen in Programmen oder Apps ermöglichen es, verfälschte bewegte Bilder oder Tonaufnahmen zu produzieren. Unter anderem setzen Täter*innen mit diesen Algorithmen Gesichter auf fremde Körper oder erstellen Imitate von Stimmen und belegen sie mit neuem Text. So versetzen sie Betroffene in andere Kontexte oder legen ihnen fremde Aussagen in den Mund.  

Gerade Personen, die in der Öffentlichkeit stehen, etwa Politiker*innen oder Schauspieler*innen, sind von solchen Deepfakes bedroht. Doch es kann alle treffen, denn die Programme zur Erstellung von manipulierten Videos sind mittlerweile sehr leicht zu bedienen. Laut einer Recherche des SWR trifft es immer öfter auch Privatpersonen – die Täter*innen kommen oft aus dem privaten Umfeld.

Deepnudes ist eine Sonderform von Deepfakes. Bei solchen Fälschungen werden Menschen auf ihren Fotos von der Technologie „ausgezogen”. Am Foto bleibt also alles echt bis auf den Körper, der nackt oder in Unterwäsche dargestellt wird. In Spanien sorgte diese neue Form von Deepfakes im September 2023 für Aufruhr: Zahlreiche Eltern meldeten, dass von ihren Töchtern solche Deepnudes erstellt worden seien. 

Woher kommt die neue Technologie und wie funktioniert sie?

Die Verfremdung von Bildern ist kein neues Phänomen, aber erst seit 2017 ist es möglich, Videoformate in extrem hoher Qualität zu fälschen. Dies sogar ohne spezielle Kenntnisse, ganz einfach mit dem eigenen Smartphone. 

Über die Plattform Reddit wurden vor fünf Jahren gefälschte Videos berühmter Schauspielerinnen veröffentlicht. Der*die User*in nannte sich deepfake und veröffentlichte den Algorithmus zur Erstellung dieser Deepfakes als Open Source.

Die neue Technologie verbreitete sich rasend schnell und wurde laufend weiterentwickelt. 2018 kam schon eine neue, verbesserte App auf den Markt und 2021 machte es die Deepfake-Software Avatarify sogar möglich, in Video-Chats auf Skype, Zoom oder Microsoft-Teams Deepfakes live im Videochat zu nutzen. Solche Programme können sich Nutzer*innen meist kostenfrei herunterladen und innerhalb von Sekunden auf ihren Geräten installieren. 

Um ein Deepfake zu erstellen, braucht es also gar nicht viel: Ein geeignetes Programm oder eine App sowie Video- oder Bildmaterial von der Person, die in das Original eingefügt wird. Da eine größere Menge an Bildmaterial nötig ist, um eine Fälschung zu erstellen, sind vor allem berühmte Personen von Deepfakes betroffen.  

Junge Person liegt auf dem Sofa und schreibt auf dem Handy.
Mittlerweile ist es sehr leicht Deepfakes mit dem Handy oder dem Laptop herzustellen. Foto: Scopio / Sol Vazquez

Wenn der Spaß aufhört…

Es ist bestimmt witzig, wenn du in einem digitalen Arbeitsmeeting plötzlich auf „Joe Biden” triffst oder du eine*n Mitschüler*in in einem Musikvideo von Rihanna siehst. Doch leider sind den Technologien zum Fälschen von Videos oder Audio-Dateien keine Grenzen gesetzt: Deepfakes können kränken, diskriminieren, verleumden, Karrieren zerstören, Leben ruinieren oder Bürger*innen aufhetzen. 

Stell dir vor: Du bist auf Twitter und siehst einen Repost: Ein Video des deutschen Familienministers. Er ist auf einer Demonstration zu sehen. Eigentlich gehört er einer demokratischen Partei an. Doch im Hintergrund des Videos sind Personen mit Reichskriegsflaggen zu sehen. Der empörte Aufschrei in sozialen Netzwerken: Der Familienminister marschiert mit Nazis? Es folgen ein Shitstorm, der Rücktritt und das Ende der Karriere des Ministers. 

Oder: Der deutsche Verteidigungsminister telefoniert mit der Generalinspekteurin der Bundeswehr. Es geht um Waffenexporte. Die Generalinspekteurin fordert mehr Waffen und Gelder in einem Kriegsgebiet. Zwar fällt hier nicht die endgültige Entscheidung, doch der Verteidigungsminister ist von den Argumenten überzeugt. 

Dass es sich im ersten Beispiel um ein gefälschtes Video handelt und im zweiten Fall die Stimme imitiert wurde, fällt nicht auf. Das zeigt, wie weit Deepfakes gehen können und welche verherenden Folgen sie haben können. 

Wie gefährlich sind Deepfakes?

Deepfakes sind ein Phänomen der digitalen Welt, welches heftig umstritten ist. Denn einerseits kann diese Technologie zur Unterhaltung genutzt werden oder als Werkzeug zur Verbrechensbekämpfung. Beispielsweise hilft computergeneriertes Bildmaterial dabei, in Fällen von sexualisierter Gewalt gegen Kinder zu ermitteln.

Andererseits wird die Gefahr immer größer, dass die Fälschungen Menschen massiv täuschen und sie öffentliche Meinung manipulieren. Gefälschte Aussagen von politischen Akteur*innen werden genutzt, um politische Propaganda zu betreiben. User*innen verlieren durch solche Fakes das Vertrauen in Politiker*innen. Und auch wenn falsche Aussagen korrigiert werden, bleiben diese in den Köpfen der Menschen oft länger hängen als die anschließende Richtigstellung. 

Traurige Person am Handy.
Für Betroffene und für unsere Gesellschaft sind Deepfakes bedrohlich. Foto: Shutterstock

Hauptgefahren für unsere Gesellschaft: 

  • Verleumdung ist eine der häufigsten Folgen von Deepfake-Attacken. Täter*innen schädigen den Ruf von Personen durch die Verbreitung gefälschter Medieninhalte und Unwahrheiten nachhaltig. 
  • Desinformationskampagnen und politische Propaganda erscheinen plötzlich als glaubwürdig, werden massiv verbreitet, und beeinflussen ganze Gesellschaften 
  • Fälschungen täuschen Sprach- oder Gesichtserkennungssoftware 
  • Deepfake-Verfahren werden auch bei Phishing-Angriffen genutzt und Täter*innen gelangen noch leichter an sensible Daten, indem sie User*innen mit täuschend echt aussehenden Fakes austricksen.  

Frauen sind besonders häufig von Deepfakes betroffen. Täter*innen fügen ihre Gesichter mittels Face Swap Apps und anderen Programmen in pornografische Darstellungen ein. Auch diese Deepfakes sehen häufig täuschend echt aus.

Sich dagegen zu wehren ist schwer, noch schwerer ist es für diese Personen, in der Öffentlichkeit zu beweisen, dass es sich um einen Fake handelt. Oftmals haben sie noch Jahre damit zu kämpfen, ihren Ruf wieder herzustellen oder mit der Verletzung und Traumatisierung zurecht zu kommen. 

In der digitalen Welt ist es also möglich, Aussagen oder Handlungen von Menschen komplett zu fälschen. Betroffene stehen vor einem Scherbenhaufen, sehen ihre Karriere zerstört oder werden aus Familie und Freund*innenkreis ausgegrenzt. Für uns als Gesellschaft bedeutet es, dass das Vertrauen in Politiker*innen oder in Medieninhalte verlorengeht – und das gefährdet unser gesellschaftliches Zusammenleben und unsere Demokratie an sich

So erkennst du Deepfakes

Obwohl die Technologien immer besser werden, können viele Deepfakes anhand bestimmter Merkmale erkannt werden:  

unnatürliche Mimik, 
ein leerer Blick und/oder kein Blinzeln, 
nicht korrekte Schattenwürfe, 
Veränderung der Hautfarbe,  
oder Ton und Mundbewegung stimmen nicht überein.  

Im Vollbildmodus können dir solche Fehler bei genauerem Hinsehen auffallen. Zudem empfehlen wir dir, auch nochmal einen Backgroundcheck des Medieninhalts zu machen:  

Wie seriös erscheint dir die Informationsquelle? 
Wann und wo wurde der Medieninhalt veröffentlicht? 
Wie ungewöhnlich sind die Aussagen oder das Verhalten der Person, im Gegensatz zu ihrer sonstigen Haltung, Profession oder Arbeit? 

Wer schützt dich vor Deepfakes?

Lange gab es zu wenig Schutz seitens der EU-Regierungen gegen Deepfakes. Mit der EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt gibt es mittlerweile mehr Schutz gegen das unbefugte Verfälschen von Bildmaterial. Nun ist es an der deutschen Regierung diesen Schutz auszuweiten. Deswegen fordern wir weiterhin einen besseren Schutz vor Bildmanipulation.

Außerdem arbeiten schon einige Unternehmen an Programmen, die Deepfakes automatisch identifizieren. Das ist wichtig, damit wir den Gefahren von Deepfakes vorbeugen können. Jedoch ist immer noch unklar, welcher Umgang mit Deepfakes angemessen ist, da die Technologie eben auch für harmlose Fälschungen im Alltag genutzt wird. Genau das ist auch der Grund, warum viele Social-Media-Plattformen noch keine richtigen Schutzmaßnahmen eingeführt haben.

Verändere die Pixel gegen Deepfakes

Immer mehr Programmierer*innen beschäftigen sich mit Gegenmaßnahmen von Deepfake-KI. Eine gängige Methode ist es, die Pixel der Originalbilder so zu verändern, dass KI-Programme diese nicht mehr lesen können und nur noch ein Pixel-Wirrwarr herausgeben. Die Urheber*innen können diese Methode vor dem Upload auf ihre Bilder anwenden, ohne dass sie sichtbar ist. Eine ungefragte Bearbeitung der Bilder ist dann nicht mehr möglich.

Das Programm Photoguard des Massachusetts Institute of Technology (MIT) ist so ein Programm, das entwickelt wurde, um Bilder vor Manipulation zu schützen: Photoguard stört durch sogenannte Datenvergiftungstechniken die Pixel in einem Bild, was ein unsichtbares Rauschen auslöst.

Diese Störung sorgt dafür, dass Bilder nicht mehr ohne Fehler in andere Kontexte gesetzt werden können. Damit sind deine Fotos vor Deepfakes geschützt. Bis jetzt gibt es die Software erstmal nur als frei verfügbaren Code.

Zwei weiblich gelesene Personen schauen auf einen Laptop
Projekte wie Photoguard ermöglichen es Menschen durch einen frei verfügbaren Code ihre Bilder zu schützen. Foto: Pexels / Mentatdgt

Auch an der University of Chicago haben Forscher*innen zwei Programme entwickelt, um unsichtbar Pixel zu verändern und Bilder so vor Fälschungen zu schützen. Sowohl Nightshade als auch Glaze stehen als OpenAI zum Download zur Verfügung.

Die Entwickler*innen von Nightshade setzen darauf, KI-Firmen daran zu hindern, Bilder ungefragt für das Training von künstlicher Intelligenz zu verwenden. Die Urheber*innen haben vor dem Upload die Möglichkeit, die Pixel so zu verändern, dass ein KI-Programm die Bilder nicht richtig auslesen kann. Eine Eingabeaufforderung, die nach einer Katze fragt, könnte stattdessen das Bild eines Hundes ergeben.

Glaze soll Künstler*innen unterstützen, ihre Kunstwerke vor KI-Fälschungen zu schützen. Das Programm kann, ähnlich wie Nightshade, den Stil der Bilder manipulieren, sodass es für das menschliche Auge nicht sichtbar ist, eine KI aber einen ganz anderen Stil oder ein anderes Motiv liest.

So können keine unerlaubten Kopien durch KI erstellt werden. Während Nightshade als Instrument gegen KI-Firmen und Bildmanipulations-Programme benutzt wird, soll Glaze vor allem auf individueller Ebene vor Nachahmungen und Kopien schützen.

Fake News oder Desinformationen können überall lauern. Über Social-Media-Plattformen verbreiten sich solche Falsch- oder Fehlmeldung sehr schnell. Wir haben Tipps für dich zusammengestellt, wie du Medieninhalte prüfst.

Sind Deepfakes strafbar?

Bislang gibt es keine konkreten Vorschriften, die das Erstellen und Verbreiten von Deepfakes als solches unter Strafe stellt. Dennoch können sich Verantwortliche – je nach Einzelfall – damit strafbar machen. So kann zum Beispiel ein Verstoß gegen das Recht am eigenen Bild vorliegen, wenn die abgebildete Person nicht in dessen Verwendung eingewilligt hat.

Gerade bei herabwürdigenden Deepfakes, können sich Täter*innen auch wegen einer Beleidigung, einer Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen, einer Verleumdung oder einer üblen Nachrede strafbar machen. Darüber hinaus kann die Vervielfältigung von Bild- und Videomaterial ohne die Erlaubnis des*der Urheber*s*in, eine Urheberrechtsverletzung darstellen. 

Wenn du von Deepfakes betroffen bist oder denkst, ein gefälschtes Bild oder Video gefunden zu haben, kannst du dich immer an unsere Berater*innen wenden. Wir sind für dich da!  

Titelbild: Shutterstock / KrankenImages

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.



    Bitte fülle noch das Captcha aus*

    Captcha
    10 + 5 = ?
    Reload

    Mehr Infos in unserer Datenschutzerklärung. *