Betroffenenberatung: Leider keine neuen Klient*innen bis 9.12.

Die aktuell hohen Krankheitszahlen sind leider auch an unserem Team nicht vorbeigegangen. Wir können zurzeit nur bestehende Fälle bearbeiten und bis zum 9.12. keine neuen Anfragen annehmen. Auch die offene Sprechstunde entfällt bis dahin. 

Wir möchten dennoch versuchen, dir in dieser Situation zu helfen. Mit folgenden Anlaufstellen & Tipps:  

      

Helft mir!
Gesicht auf dunklem Hintergrund. Gesicht verschwimmt leicht in hellblau leuchtenden Farben.

Realität oder Fake? Bedrohung durch Deepfakes

Haben wir nicht alle schon einmal darüber gelacht, wenn unser Gesicht durch einen Instagram-Filter auf einen tanzenden Weihnachtself gesetzt wurde? Oder wenn wir mit dem Gesicht von Kim Kardashian in unserer Story über den letzten Einkauf sprechen? Was passiert aber, wenn wir unser Gesicht plötzlich in einem Porno wiederfinden? Oder wenn demokratische Politiker*innen in einem echt erscheinenden Video Kriege verherrlichen? Deepfakes, gefälschte Fotos, Audio- oder Video-Dateien, sehen immer echter aus und es wird immer einfacher, sie zu erstellen. 

Was sind Deepfakes?

Deepfakes, aus dem englischen Deep Learning und Fake, sind Video- oder Audio-Dateien, die mithilfe von künstlicher Intelligenz manipuliert werden. Algorithmen in Programmen oder Apps ermöglichen es, verfälschte bewegte Bilder oder Tonaufnahmen zu produzieren. Unter anderem setzen Täter*innen mit diesen Algorithmen Gesichter auf fremde Körper oder erstellen Imitate von Stimmen und belegen sie mit neuem Text. So versetzen sie Betroffene in andere Kontexte oder legen ihnen fremde Aussagen in den Mund.  

Gerade Personen, die in der Öffentlichkeit stehen, etwa Politiker*innen oder Schauspieler*innen, sind von solchen Deepfakes bedroht. Doch es kann alle treffen, denn die Programme zur Erstellung von manipulierten Videos sind mittlerweile sehr leicht zu bedienen. 

Woher kommt die neue Technologie und wie funktioniert sie?

Die Verfremdung von Bildern ist kein neues Phänomen, aber erst seit 2017 ist es möglich, Videoformate in extrem hoher Qualität zu fälschen. Dies sogar ohne spezielle Kenntnisse, ganz einfach mit dem eigenen Smartphone. 

Über die Plattform Reddit wurden vor fünf Jahren gefälschte Videos berühmter Schauspielerinnen veröffentlicht. Der*die User*in nannte sich deepfake und veröffentlichte den Algorithmus zur Erstellung dieser Deepfakes als Open Source. Die neue Technologie verbreitete sich rasend schnell und wurde laufend weiterentwickelt. 2018 kam schon eine neue, verbesserte App auf den Markt und 2021 machte es die Deepfake-Software Avatarify sogar möglich, in Video-Chats auf Skype, Zoom oder Microsoft-Teams Deepfakes live im Videochat zu nutzen. Solche Programme können sich Nutzer*innen meist kostenfrei herunterladen und innerhalb von Sekunden auf ihren Geräten installieren. 

Um ein Deepfake zu erstellen, braucht es also gar nicht viel: Ein geeignetes Programm oder eine App sowie Video- oder Bildmaterial von der Person, die in das Original eingefügt wird. Da eine größere Menge an Bildmaterial nötig ist, um eine Fälschung zu erstellen, sind vor allem berühmte Personen von Deepfakes betroffen.  

Wenn der Spaß aufhört…

Es ist bestimmt witzig, wenn du in einem digitalen Arbeitsmeeting plötzlich auf „Joe Biden” triffst oder du eine*n Mitschüler*in in einem Musikvideo von Rihanna siehst. Doch leider sind den Technologien zum Fälschen von Videos oder Audio-Dateien keine Grenzen gesetzt: Deepfakes können kränken, diskriminieren, verleumden, Karrieren zerstören, Leben ruinieren oder Bürger*innen aufhetzen. 

Stell dir vor: 

Du bist auf Twitter und siehst einen Repost: Ein Video des deutschen Familienministers. Er ist auf einer Demonstration zu sehen. Eigentlich gehört er einer demokratischen Partei an. Doch im Hintergrund des Videos sind Personen mit Reichskriegsflaggen zu sehen. Der empörte Aufschrei in sozialen Netzwerken: Der Familienminister marschiert mit Nazis? Es folgen ein Shitstorm, der Rücktritt und das Ende der Karriere des Ministers. 

Oder:

Der deutsche Verteidigungsminister telefoniert mit der Generalinspekteurin der Bundeswehr. Es geht um Waffenexporte. Die Generalinspekteurin fordert mehr Waffen und Gelder in einem Kriegsgebiet. Zwar fällt hier nicht die endgültige Entscheidung, doch der Verteidigungsminister ist von den Argumenten überzeugt.  

Dass es sich im ersten Beispiel um ein gefälschtes Video handelt und im zweiten Fall die Stimme imitiert wurde, fällt nicht auf. Das zeigt, wie weit Deepfakes gehen können und welche verherenden Folgen sie haben können. 

Wie gefährlich sind Deepfakes?

Deepfakes sind ein Phänomen der digitalen Welt, welches heftig umstritten ist. Denn einerseits kann diese Technologie zur Unterhaltung genutzt werden oder als Werkzeug zur Verbrechensbekämpfung. Beispielsweise hilft computergeneriertes Bildmaterial dabei, in Fällen von sexualisierter Gewalt gegen Kinder zu ermitteln. Andererseits wird die Gefahr immer größer, dass die Fälschungen Menschen massiv täuschen und sie öffentliche Meinung manipulieren. Gefälschte Aussagen von politischen Akteur*innen werden genutzt, um politische Propaganda zu betreiben. User*innen verlieren durch solche Fakes das Vertrauen in Politiker*innen. Und auch wenn falsche Aussagen korrigiert werden, bleiben diese in den Köpfen der Menschen oft länger hängen als die anschließende Richtigstellung. 

Hauptgefahren für unsere Gesellschaft: 

  • Verleumdung ist eine der häufigsten Folgen von Deepfake-Attacken. Täter*innen schädigen den Ruf von Personen durch die Verbreitung gefälschter Medieninhalte und Unwahrheiten nachhaltig. 
  • Desinformationskampagnen und politische Propaganda erscheinen plötzlich als glaubwürdig, werden massiv verbreitet, und beeinflussen ganze Gesellschaften 
  • Fälschungen täuschen Sprach- oder Gesichtserkennungssoftware 
  • Deepfake-Verfahren werden auch bei Phishing-Angriffen genutzt und Täter*innen gelangen noch leichter an sensible Daten, indem sie User*innen mit täuschend echt aussehenden Fakes austricksen.  

Frauen sind besonders häufig von Deepfakes betroffen. Täter*innen fügen ihre Gesichter mittels Face Swap Apps und anderen Programmen in pornografische Darstellungen ein.  Auch diese Deepfakes sehen häufig täuschend echt aus. Sich dagegen zu wehren ist schwer, noch schwerer ist es für diese Personen, in der Öffentlichkeit zu beweisen, dass es sich um einen Fake handelt. Oftmals haben sie noch Jahre damit zu kämpfen, ihren Ruf wieder herzustellen oder mit der Verletzung und Traumatisierung zurecht zu kommen. 

In der digitalen Welt ist es also möglich, Aussagen oder Handlungen von Menschen komplett zu fälschen. Betroffene stehen vor einem Scherbenhaufen, sehen ihre Karriere zerstört oder werden aus Familie und Freund*innenkreis ausgegrenzt. Für uns als Gesellschaft bedeutet es, dass das Vertrauen in Politiker*innen oder in Medieninhalte verlorengeht – und das gefährdet unser gesellschaftliches Zusammenleben und unsere Demokratie an sich

Silhouette vor Spiegelwand mit hellen Lichtern.
Für Betroffene und für unsere Gesellschaft sind Deepfakes bedrohlich. Foto: Scopio/Mohnish Daryanani

So erkennst du Deepfakes

Obwohl die Technologien immer besser werden, können viele Deepfakes anhand bestimmter Merkmale erkannt werden:  

unnatürliche Mimik, 
ein leerer Blick und/oder kein Blinzeln, 
nicht korrekte Schattenwürfe, 
Veränderung der Hautfarbe,  
oder Ton und Mundbewegung stimmen nicht überein.  

Im Vollbildmodus können dir solche Fehler bei genauerem Hinsehen auffallen. Zudem empfehlen wir dir, auch nochmal einen Backgroundcheck des Medieninhalts zu machen:  

Wie seriös erscheint dir die Informationsquelle? 
Wann und wo wurde der Medieninhalt veröffentlicht? 
Wie ungewöhnlich sind die Aussagen oder das Verhalten der Person, im Gegensatz zu ihrer sonstigen Haltung, Profession oder Arbeit? 

Fake News oder Desinformationen können überall lauern. Über Social-Media-Plattformen verbreiten sich solche Falsch- oder Fehlmeldung sehr schnell. Wir haben Tipps für dich zusammengestellt, wie du Medieninhalte prüfst.

Wer schützt dich vor Deepfakes?

Regierungen fangen vermehrt an, sich mit der Thematik zu befassen und erlassen Gesetze zum Schutz gegen Deepfakes. Außerdem arbeiten schon einige Unternehmen an Programmen, die Deepfakes automatisch identifizieren. Das ist wichtig, damit wir den Gefahren von Deepfakes vorbeugen können. Jedoch ist immer noch unklar, welcher Umgang mit Deepfakes angemessen ist, da die Technologie eben auch für harmlose Fälschungen im Alltag genutzt wird. Genau das ist auch der Grund, warum viele Social-Media-Plattformen noch keine richtigen Schutzmaßnahmen eingeführt haben.  

Sind Deepfakes strafbar?

Bislang gibt es keine konkreten Vorschriften, die das Erstellen und Verbreiten von Deep Fakes als solches unter Strafe stellt. Dennoch können sich Verantwortliche – je nach Einzelfall – damit strafbar machen. So kann zum Beispiel ein Verstoß gegen das Recht am eigenen Bild vorliegen, wenn die abgebildete Person nicht in dessen Verwendung eingewilligt hat. Gerade bei herabwürdigenden Deepfakes, können sich Täter*innen auch wegen einer Beleidigung, einer Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen, einer Verleumdung oder einer üblen Nachrede strafbar machen. Darüber hinaus kann die Vervielfältigung von Bild- und Videomaterial ohne die Erlaubnis des*der Urheber*s*in, eine Urheberrechtsverletzung darstellen. 

Wenn du von Deepfakes betroffen bist oder denkst, ein gefälschtes Bild oder Video gefunden zu haben, kannst du dich immer an unsere Beratung wenden. Wir sind für dich da!  

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.

    Mehr Infos in unserer Datenschutzerklärung