Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da!

Schreibe eine E-Mail an:

beratung@hateaid.org 

Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Di 15 – 18 Uhr | Do 16 – 19 Uhr

Chatte mit uns:* Mi 15 – 18 Uhr | Fr 11 – 14 Uhr

*Bitte akzeptiere die Cookies, um mit uns zu chatten.

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Erstatte direkt eine Anzeige! 

 



Helft mir!
Eine Lupe. Darunter die Logos der Plattformen Facebook, YouTube, Twitter & Instagram

Transparenzberichte: Wie Social-Media-Plattformen unsere Rechte umgehen

Ob Hatespeech, Beleidigungen oder Vergewaltigungsdrohungen: Wird digitale Gewalt in den sozialen Medien gemeldet, müssen die Social-Media-Plattformen prüfen, ob der entsprechende Beitrag von der Plattform entfernt werden muss. Die Anzahl der gemeldeten und entfernten Beiträge sowie weitere Informationen müssen die Plattformen im Rahmen von Transparenz-Berichten regelmäßig veröffentlichen. Dazu sind Social-Media-Plattformen wie Twitter, Facebook oder YouTube nach dem deutschen Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet. Mit diesem umstrittenen Gesetz übernahm Deutschland bereits 2017 eine Vorreiterrolle im Umgang mit illegalen Inhalten in den sozialen Medien in Europa ein. Das Ziel: Der massiven Verbreitung von Hass und Hetze durch rechtsextreme Gruppierungen in der Gesellschaft Einhalt zu gebieten. Das war lange bevor das neue EU-Internetgesetz, der Digital Services Act, entstanden ist.  

Wir haben uns für euch die gerade veröffentlichten Transparenz-Berichte der Social-Media-Plattformen genauer angeschaut. Darin zu finden: Die Anzahl der gemeldeten Beiträge, die Quote der gelöschten Beiträge und erstmalig auch die Anzahl der Beschwerden von deutschen Nutzer*innen. 
 
Auch dieses Mal zeigen die Berichte wieder, dass Twitter und Co. nur einen geringen Teil der gemeldeten Beiträge tatsächlich entfernen. Außerdem wird die überwiegende Mehrheit dieser Beiträge nicht auf Basis des NetzDG, sondern auf Grundlage der eigenen Nutzungsbedingungen der Plattform entfernt. Wir sehen auch: Die Informationen, die Facebook, Twitter und Co. liefern, sind insgesamt wenig aussagekräftig.  

Die neuen Transparenz-Berichte zeigen: Nur wenige gemeldete Beiträge werden entfernt

Twitter: 829.370 gemeldet, 118.938 entfernt (14,3 %). 
Facebook: 170.233 gemeldet, 22.826 entfernt (13,4 %). 
Instagram: 63.696 gemeldet, 5.566 entfernt (8,7 %).
TikTok: 226.479 gemeldet, 34.727 entfernt (15,3 %). 

Unabhängige Untersuchungen zeigen: Moderation von Beiträgen läuft nicht gut 

Zwar bieten die Transparenz-Berichte einen quantitativen Überblick über den Umgang mit gemeldeten Bedrohungen, Beleidigungen oder Hatespeech. Allerdings geben die Berichte keinen Aufschluss über die Qualität des Umgangs mit digitaler Gewalt in den sozialen Medien. Unseren Erkenntnissen zufolge gibt es begründete Bedenken am Umgang mit Meldungen von Hass und Hetze auf den Plattformen. Unabhängige Untersuchungen und die Erfahrung von vielen Nutzer*innen bestätigen, dass die Meldewege unverständlich und unbefriedigend sind:

  • Im Vorfeld der französischen Präsidentschaftswahlen im März 2022: Facebook versäumte es in 70 Prozent der Fälle, gemeldete illegale Hasskommentare zu entfernen, 
  • Jede*r Zweite ist unzufrieden damit, wie Plattformen mit gemeldeten gewaltvollen Inhalten umgehen. Die Hauptgründe: Intransparenz, unverständliche Antworten und fehlende Reaktionen der Plattformen.  
  • Von den Personen, die bereits gewaltvolle Beiträge gemeldet haben, kritisieren 48 Prozent, dass die Plattformen nichts dagegen unternommen haben. 

 

Dieses Mal neu: Interne Beschwerdebearbeitung 

Ende 2021 wurde die Verpflichtung zur Einrichtung eines Beschwerdemechanismus für Nutzer*innen eingeführt. Social-Media-Plattformen müssen ihren Nutzer*innen die Möglichkeit geben, sich über Entscheidungen der Plattformen zu beschweren, z. B. über die Entfernung oder Nichtentfernung von Inhalten, die gemeldet wurden. Die Anzahl der Beschwerden und die Anzahl der Inhalte, die entfernt oder wiederhergestellt wurden, müssen von den Plattformen veröffentlicht werden.

Überraschenderweise konnten wir im Transparenzbericht von Twitter keine derartigen Zahlen finden. Die Berichte der übrigen Plattformen enthalten Informationen darüber und zeigen deutlich, dass der Beschwerdeweg für Nutzer*innen ein sinnvolles Instrument ist, um Entscheidungen über die Moderation von Inhalten zu überprüfen. Außerdem wird es nicht nur von Uploadern genutzt, die von der Entfernung ihrer Inhalte betroffen sind. Auch Nutzer*innen, die mit der Ablehnung ihrer Meldung unzufrieden sind, nutzen die neue Funktion. Sie sind in etwa 8 % der Fälle erfolgreich, während Facebook mit 6 % die niedrigste Erfolgsquote aufweist. Überraschenderweise war es TikTok, das die meisten Beschwerden über die Nichtentfernung von Inhalten von meldenden Nutzer*innen erhielt – doppelt so viele wie Facebook, das in Deutschland dreimal so viele Nutzerinnen hat.
  

Versteckt und abgeschreckt: Wie Meldewege Nutzer*innen das Melden erschweren

Ob auf Youtube, Twitter oder Instagram: Alle Nutzer*innen von sozialen Medien in Deutschland haben das Recht auf einen einfach zugänglichen Meldeweg, um gewaltvolle Beiträge bei der Plattform zu melden. Dieses im NetzDG verankerte Recht schreibt Standards vor, an die sich Plattformen halten müssen. Dazu gehören unter anderem:  

  • Die Entfernung offensichtlich rechtswidriger Inhalte innerhalb von 24 Stunden nach Eingang der Meldung,  
  • halbjährliche Transparenzberichte
  • ein einfacher Zugang zu den Plattformen mit einer nationalen Anlaufstelle und  
  • Rechtsbehelfsmöglichkeiten gegen inhaltliche Entscheidungen. 

Zur Meldung illegaler Inhalte haben viele soziale Netzwerke Systeme mit mehreren Optionen eingerichtet. Mehrere Meldewege auf einmal? Das kann Nutzer*innen leicht in die Irre führen. Möchtest du zum Beispiel eine Beleidung melden, hast du die Wahl, ob du die Beleidigung als Verstoß gegen das NetzDG melden möchtest oder als Verstoß gegen die Nutzungsbedingungen der Plattform. Das sind die internen Regeln, die sich die Plattform selbst gegeben hat. Entscheidest du dich für die Meldung nach dem NetzDG, wird es noch komplizierter: Als nächstes musst du aus einer Liste von Paragraphen aus dem Strafgesetzbuch auswählen, ohne dass dies näher erläutert wird. Da es ohne Jurastudium kaum möglich ist, eine fundierte Vermutung anzustellen, sehen viele Nutzer*innen von einer Meldung ab oder vermeiden diesen Meldeweg. 

 
Alles andere als benutzerfreundlich: Einige Beispiele aus der Praxis 

  • Youtube hat eine Schaltfläche für allgemeine Meldungen von Beiträgen und ein zusätzliches optionales Feld für eine NetzDG-Meldung. Dieses optionale Feld ist jedoch sehr leicht zu übersehen.  
  • Bei der Nutzung von Instagram im Webbrowser gibt es nur eine allgemeine Meldeoption, aber keine Möglichkeit, nach dem NetzDG melden. Das hat zur Folge, dass die meisten Nutzer*innen, die z. B. Hatespeech melden wollen, dies als Verstoß gegen die Nutzungsbedingungen der Plattformen melden.   
  • Bei der Meldung von Beiträgen nach NetzDG auf Twitter werden die Nutzer*innen gewarnt, dass sie sich bewusst sein müssen, dass sie mit der Meldung einen schwerwiegenden Vorwurf wegen illegalen Verhaltens erheben, und dass ihr Profil gesperrt werden kann, wenn ungenaue Anschuldigungen zu oft vorkommen. Dies könnte sogar als Dark Pattern bezeichnet werden, also eine Methodik, um das Melden zu erschweren.  
  • Auf TikTok werden die Nutzer*innen zwar über die Entscheidung über ihre Meldung informiert, erhalten aber keine weiteren vom NetzDG vorgeschriebenen Hinweise, wie z. B. Informationen über Rechtsmittel oder Strafanzeigen. 

Community-Richtlinien vs. NetzDG: Wie Plattformen gesetzliche Verpflichtungen umgehen 

Seit mehreren Jahren sehen wir: Viele Plattformen prüfen die gemeldeten Beiträge zunächst nach ihren eigenen Nutzungsbedingungen, statt die Meldungen direkt anhand der gesetzlichen Vorgaben nach dem NetzDG zu überprüfen.

Was ist das Problem, wenn nur auf Grundlage der eigenen Nutzungsbedingungen geprüft wird?

Zum einen sind die eigenen Regelungen der Plattformen sehr vage und die Anwendung ist oft nicht nachvollziehbar. Zum anderen haben einige Plattformen damit auch eine Möglichkeit gefunden, die gesetzlichen Verpflichtungen zum Umgang mit illegalen Inhalten zu umgehen. Dazu gehört z. B. die Bereitstellung einer nachvollziehbaren Begründung oder Zugang zu einer nationalen Kontaktstelle.

Die Transparenz-Berichte von Facebook und Instagram zeigen deutlich, dass nur Entscheidungen auf der Grundlage des NetzDG mit Beschwerden der Nutzer angefochten werden können, was dem engsten Verständnis ihrer rechtlichen Verpflichtungen entspricht. Dies beweist einmal mehr, dass Plattformen immer wieder Schlupflöcher finden, um nicht gesetzlich zur Rechenschaft gezogen zu werden, sondern stattdessen ihre eigenen Regeln befolgen.

Außerdem haben wir in der Vergangenheit gesehen, dass die beiden Meldewege nach NetzDG und nach den eigenen Nutzungsbedingungen mit zweierlei Maß gemessen werden. In einer Untersuchung, die wir zusammen mit Reset vor der Bundestagswahl 2021 durchgeführt haben, konnten wir sehen, dass die Entfernungsrate von illegalen Inhalten bei Facebook bei einer Meldung über das NetzDG um ein Drittel höher war im Vergleich zu einer Meldung nach den Nutzunsbedingungen. 

Es sind Experimente wie diese, die darauf hindeuten, dass der Verdacht des massiven Underblockings, berechtigt sein könnte. Sprich: Viele illegale Inhalte bleiben im Netz, obwohl sie dort nicht sein sollten. Kritiker*innen des NetzDG warnten im Kontext von Löschfristen für die Plattformen in der Vergangeneheit immer wieder vor massivem Overblocking. Sie fürchten, dass auch Beiträge entfernt würden, die konform mit Gesetzen und Nutzungsbedingungen sind. Dafür sehen wir bisher allerdings keine Anzeichen. Die Tatsache, dass nur ein winziger Bruchteil von durchschnittlich 13 Prozent der Meldungen tatsächlich zur Entfernung von Beiträgen führt, beweist in der Tat, dass strenge Fristen nicht zu einer ungeprüften und automatisierten Entfernung aller gemeldeten Inhalte führen. 

Aha-Moment für die EU? Was wir daraus lernen können 

In wenigen Monaten wird in der EU der Digital Services Act, das neue EU-Internetgesetz, in Kraft treten. Deswegen ist jetzt wichtiger denn je, dass EU und die Mitgliedstaaten aus den Schwachstellen des NetzDG lernen. Die Rechte von Nutzer*innen dürfen nicht ausgehöhlt werden, nur damit es Facebook, YouTube und Co. einfacher haben. Die Regulierungsbehörden fordern wir dringend auf, manipulatives Handeln der Social-Media-Plattformen in den Blick zu nehmen. Dazu zählt insbesondere: 

  • Einfach gesagt: Die bestehenden Regulierungen müssen umgesetzt werden, und es muss sichergestellt werden, dass die Plattformen die Verpflichtungen aus dem DSA nicht ignorieren.
  • Das Verstecken von Meldewegen, insbesondere für illegale Inhalte. Benutzerfreundliche Meldekanäle sollten sich immer in der Nähe des gemeldeten Beitrags befinden.
  • Nutzer*innen dürfen nicht eingeschüchtert und vom Melden illegaler Beiträge abgehalten werden. Es ist die Aufgabe der Plattformen, Meldungen ordnungsgemäß und unabhängig von der Brisanz der gemeldeten Inhalte zu bewerten. 

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.



    Bitte fülle noch das Captcha aus*

    Mehr Infos in unserer Datenschutzerklärung. *