Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da!

Schreibe eine E-Mail an:

beratung@hateaid.org 

Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Di 15 – 18 Uhr | Do 16 – 19 Uhr

Chatte mit uns:* Mi 15 – 18 Uhr | Fr 11 – 14 Uhr

*Bitte akzeptiere die Cookies, um mit uns zu chatten.

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Erstatte direkt eine Anzeige! 

 



Helft mir!
Ein Bild von einer Hand, die einen Briefumschlag in eine Wahlurne steckt.

Hass & Hetze bei den Präsidentschaftswahlen in Frankreich – Facebook schaut einfach zu

Hass-Posts in den Kommentarspalten entfernen? Rechtsextremer Hetze die Stirn bieten? Hater*innen blockieren, die Politiker*innen massenhaft angreifen? Bei Facebook in Frankreich Fehlanzeige. In den Wochen vor den französischen Präsidentschaftswahlen heizt sich das politische Klima im Netz immer weiter auf – und der Meta-Konzern versäumt es, einzugreifen! Das zeigt eine neue Analyse, die wir gemeinsam mit der französischen Organisation LICRA rund um Online-Sicherheit, Antirassismus und Antisemitismus durchgeführt haben.

Der finale Report zeigt, dass die Situation auf der Online-Plattform immer mehr aus dem Ruder läuft. User*innen stacheln sich gegenseitig dazu auf, politische Kandidat*innen anzugreifen, Frauen und Migrant*innen werden beschimpft und verleumdet. Auch Inhalte, die klar gegen die Nutzungsbedingungen der Plattform und geltendes französisches Recht verstoßen, bleiben einfach online – obwohl wachsame Nutzer*innen diese bei der Plattform gemeldet haben.

Ein Smartphone und die Hände einer Person sind zu sehen. Auf dem Bildschirm sind die Apps sozialer Medien geöffnet.
Trotz mehrfacher Meldungen rechtswidriger Inhalte griff Facebook nicht ein. Foto: Pexels / Cottonbro

Wenn Hassrede einfach online stehen bleibt 

Im Rahmen der Untersuchung fand ein investigatives Rechercheteam heraus, dass Facebook es in 70 Prozent der Fälle versäumt, Hasskommentare zu löschen, nachdem User*innen sie gemeldet hatten. Das Team meldete Hasskommentare, die klar als illegal einzustufen sind. Unter anderem Beleidigungen wie: „Ich scheiß dir in den Mund, du Schl*mpe” oder „Rasse von Bastarden, [ihr solltet] mit dem Flammenwerfer [überzogen werden]”.*  

Das Team meldete Kommentar um Kommentar, aber die Content-Moderator*innen wurden nur selten aktiv, die Löschverfahren versagten. Erschreckend ist, dass 94 Prozent von 205 gemeldeten Kommentaren, die Facebook nicht löschte, von Jurist*innen klar als rechtswidrige Inhalte eingestuft wurden.

Hasskommentare manchmal 690 Tage online 

Eigentlich schreibt es sich der Meta-Konzern groß auf die Fahne, innerhalb von 24 Stunden auf Meldungen zu reagieren. Aber: Nichts da! Facebook versäumte es, sorgfältig und transparent zu arbeiten. Der Konzern ignorierte Benachrichtigungen der Nutzer*innen. Und in weniger als 20 Prozent der Fälle reagierten die Content-Moderator*innen auf die Meldungen des Rechercheteams.

Durchschnittlich waren die Hasskommentare 431 Tage online, manche 19 Tage lang und andere über zwei Jahre, nämlich 690 Tage. Und das, obwohl sie sowohl gegen die Gemeinschaftsstandards von Facebook als auch gegen französisches Recht verstießen.

Wie Facebooks Nachlässigkeit den politischen Wettbewerb verfälscht

Dass Facebook nicht aktiv wird, hat gravierende Auswirkungen auf die politische Meinungsvielfalt. Denn wenn der Konzern nicht durchgreift und seine eigenen Nutzungsbedingungen ignoriert, belohnt er durch dieses Fehlverhalten diejenigen, die mit ihren Worten aufstacheln, beleidigen und verleumden. Und diejenigen, die sich an die Regeln halten, geraten ins Hintertreffen.

Was die Ergebnisse auch nahelegen: Erst die Androhung glaubwürdiger finanzieller Sanktionen kann eine Änderung herbeiführen. Denn wie sonst soll der Konzern lernen, dass die Rechte und Sicherheit seiner Nutzer*innen höchste Priorität haben?

Anna-Lena von Hodenberg, Gründungsgeschäftsführerin HateAid
Anna-Lena von Hodenberg. Foto: Andrea Heinsohn Photography

„Facebook versagt erneut in der Durchsetzung der eigenen Regeln gegen Hatespeech. Die digitale Gewalt, die wir gerade jetzt vor den französischen Präsidentschaftswahlen auf der Plattform erleben,
fördert Hass und Intoleranz. Damit gibt Facebook Gruppen eine Bühne, die versuchen, den Wahlprozess zu sabotieren. Die Plattform sollte als mitverantwortlich für diesen Schaden an unserer Demokratie betrachtet werden.“
Anna-Lena von Hodenberg, Geschäftsführerin von HateAid 

Plattformen & Politik müssen jetzt handeln 

Inmitten der französischen Wahlen wird außerdem abermals deutlich, wie wichtig es ist, Plattformen systematisch zu regulieren. Denn ihre Macht im politischen Diskurs darf nicht unterschätzt werden. Offenkundig illegale, diffamierende Inhalte dürfen keinen Platz auf einer Plattform haben, die Milliarden Nutzer*innen weltweit nutzen. Wenn Vertreter*innen demokratischer Parteien massiv Morddrohungen erhalten, muss allen klar sein, dass etwas gewaltig schiefläuft.

Das betont auch Gilbert Flam, Leiter für europäische und internationale Angelegenheiten von LICRA mit Blick auf den alarmierenden Report:

In dieser für Frankreich besonderen Zeit und im Vorfeld der Präsidentschaftswahlen ist LICRA der Ansicht, dass die IT-Plattformen für die Moderation von Hatespeech im Internet verantwortlich sind. Die jüngste Gerichtsentscheidung in Frankreich bezüglich der Moderation von Twitter zeigt, wie wichtig die sozialen Medien bei der Bekämpfung von Hassphänomenen sind. Das Gericht ordnete nämlich an, dass Twitter Aktivist*innen vollen Zugang zu allen Dokumenten über die Bemühungen zur Bekämpfung von Hatespeech im sozialen Netzwerk gewährt. Wir, als Zivilgesellschaft mit Fachwissen über Hatespeech, hoffen, dass der Digital Services Act, das neue EU-Internetgesetz, unseren Erwartungen nachkommt.“

Gerade laufen die Verhandlungen auf EU-Ebene zum Digital Services Act (DSA). Politiker*innen und der Gesetzesgeber können mit ihrer Stimme dazu beitragen, dass Plattformen in Zukunft rechtlich dazu verpflichtet sind, wichtige Regeln bei der Content-Moderation einzuhalten.  

Die Rechte von Nutzer*innen müssen gestärkt werden. Das bedeutet auch: Wer illegale Hasskommentare bei Plattformen meldet und nicht vorankommt, muss über einen internen Beschwerdemechanismus den Zugang zu einer zweiten Bewertung durch die Plattform bekommen. Zudem sollten NGOs zu denjenigen gehören, die für Forschungszwecke Zugang zu Plattformdaten bekommen. Nur so können Missstände wie der im vorliegenden Report auch in Zukunft zuverlässig aufgedeckt werden.

* Übersetzungen aus dem Französischen mit grammatikalischen Anpassungen im Deutschen

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.



    Bitte fülle noch das Captcha aus*

    Mehr Infos in unserer Datenschutzerklärung. *