Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da!

Schreibe eine E-Mail an:

beratung@hateaid.org 

Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Di 15 – 18 Uhr | Do 16 – 19 Uhr

Chatte mit uns:* Mi 15 – 18 Uhr | Fr 11 – 14 Uhr

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Erstatte direkt eine Anzeige! 

 



Helft mir!

Der DSA: Betroffene von digitaler Gewalt brauchen dringend Zugang zur Justiz

Stell dir vor, dein Gesicht wird auf ein Nacktbild gephotoshopped und auf Facebook veröffentlicht, mit dem Hinweis, dass du das seist. Du beschließt, das zu melden, aber du erhältst keine Reaktion, keine Hilfe von der Plattform. Würde dir dein Gerechtigkeitssinn sagen, dass du für deine Rechte vor Gericht kämpfen solltest?

In zwei Jahren der Beratung und Prozessfinanzierung von und für Betroffene von digitaler Gewalt hat HateAid Folgendes gelernt: Wenn du bereit bist, ein erhebliches finanzielles Risiko einzugehen und lange genug durchzuhalten, kann dir die Justiz durchaus den Rücken stärken. Wenn nicht, bleiben beleidigende Beiträge und Kommentare an der virtuellen Wand hängen, und Plattformen wie Facebook werden weiterhin die Cashcow mit Inhalten melken, die gar nicht erst hätten gepostet werden dürfen. Wir argumentieren, dass dieser Status quo untragbar ist. Und das vorgeschlagene neue EU-Gesetz zur Plattformregulierung, der Digital Services Act, hat notwendige Maßnahmen zur Durchsetzung unseres Rechts auf Zugang zur Justiz übersehen.

Dabei läge die Lösung so nah …

Melden und Löschen? Twitter handelt nicht …

HateAid unterstützt täglich Betroffene von digitaler Gewalt auf Social-Media-Plattformen. Wir sehen, dass es manchmal sehr schwierig ist, vor Gericht zu gehen, und immer anstrengend.
Einer unserer Fälle ist beispielhaft für viele andere: Eine bekannte deutsche Journalistin wurde mit Posts konfrontiert, die sexualisierte Gewalt und Beleidigungen gegen sie aufgrund ihrer politischen Ansichten enthielten. Sie entschloss sich, Strafanzeige zu erstatten. Die Plattform verweigerte der Staatsanwaltschaft Informationen über die Identität der Täter*innen. Deshalb wählte unsere Mandantin einen zivilrechtlichen Weg, um eine gerichtliche Verfügung zu erwirken, die der Plattform die Auskunftserteilung erlaubt. Es erforderte zwar einige weitere Schritte, bis die Identifizierung der Täter*innen gelang, aber die Plattform löschte die fraglichen Kommentare immer noch nicht, obwohl ein Gerichtsbeschluss vorlag, der sie für rechtswidrig erklärte. Zwei Aufforderungen zur Löschung später hat Twitter immer noch nicht gehandelt. Unsere Klientin reichte eine weitere Klage gegen die Plattform ein und wartet nun seit sieben Monaten auf eine Entscheidung – die diffamierenden Beiträge bleiben jedoch während all dieser Verfahren sichtbar und verbreiten sich ungehindert im Internet.

Journalist*innen und Reporter*innen gehören zu einer der Gruppen, die der Online-Gewalt auf Social-Media-Plattformen besonders ausgesetzt sind. Anfang dieses Jahres hat Reporter ohne Grenzen Facebook verklagt, weil das Unternehmen sein Versprechen, eine „sichere“ und „fehlerfreie“ Online-Umgebung zu bieten, nicht eingehalten hat: Hassreden und Falschinformationen haben sich ungehindert in den Netzwerken des Unternehmens in großem Umfang verbreitet.

Im WWW hat niemand 2 Jahre Zeit

Generell sind Strafanzeigen in Deutschland im Bereich der illegalen Hassrede selten erfolgreich. Schon der grundlegende erste Schritt, die Identifizierung der Täter*innen, kann nur in etwa einem Drittel (28 %) der Fälle erreicht werden, wobei die Chancen von Facebook mit 66 % über Twitter mit 7 % bis hin zu Telegram, wo es nahezu unmöglich ist, variieren. (1) Und wenn der lange Weg der Identifizierung erfolgreich ist, ist die Rechtsverfolgung ebenso langwierig, komplex und mit hohen finanziellen Risiken verbunden, die sich meist auf 4.000 € – 5.000 € belaufen. Nicht selten dauern 2 Instanzen 2 Jahre.

Da die strafrechtliche Verfolgung in vielen Fällen unwirksam ist und das finanzielle Risiko eines Rechtsstreits hoch ist, kann es die letzte Möglichkeit sein, die Plattformen direkt zu kontaktieren und auf legalem Wege die Löschung der betreffenden illegalen Inhalte zu verlangen.
Technisch gesehen bringt diese Option Vorteile mit sich – lästige Verfahren können vermieden werden, und das Ergebnis ist viel schneller sichtbar. In der Realität sieht es jedoch anders aus.
Die Plattformen sind sich dieses Ungleichgewichts der Macht zwischen ihnen und uns, ihren Nutzer*innen, bewusst. Sie entfernen nur selten Inhalte – laut dem Counter Extremism Project liegt die durchschnittliche Takedown-Rate illegaler Inhalte durch sehr große Plattformen (Gatekeeper) aufgrund von Nutzer*innenhinweisen bei 42 % (2) – und ihre Entscheidungen sind höchst willkürlich, wie in unserem Eingangsbeispielfall zu sehen ist.
Und bevor man sein Glück versuchen kann, muss man erst einmal lange suchen – im Impressum sind die Adressen gut versteckt. Dann muss man sich mit der rechtssicheren Zustellung von Dokumenten ins Ausland herumschlagen, die für einen Rechtsstreit notwendig ist. Wir wissen immer noch nicht, ob der letzte Brief, den wir vor neun Monaten im Auftrag eines Mandanten an Twitter geschickt haben, deren Zentrale erreicht hat.

DSA versagt bei der Stärkung des Rechtsschutzes für Nutzer*innen

Das schnelllebige digitale Umfeld hat unsere Rechtssysteme, Gesetze und politischen Rahmenbedingungen einem Stresstest unterzogen, und die Nutzer*innen sind diejenigen, die unter dieser Rechtsunsicherheit am meisten leiden.
Wie also begegnet der aktuelle Vorschlag der DSA dem Problem willkürlicher Entscheidungen und schwierigem Zugang zur Justiz im Bereich illegaler Hassreden im Internet? Anstatt die Rechtsstaatlichkeit zu stärken, wie sie von nationalen Gerichten garantiert wird, versucht die Kommission, ein Paralleluniversum aufzubauen, indem sie eine sogenannte außergerichtliche Streitbeilegungsstelle installiert. Das mag zwar hilfreich sein, stellt aber keine vollständige Lösung dar.

Generell soll die Stelle als eine Art „letzte Instanz“ nach der internen Beschwerdebearbeitung über ungeklärte Content-Moderationsfälle entscheiden. Die Idee dahinter ist, wie die Kommission vorschlägt, „die Möglichkeit des gerichtlichen Rechtsschutzes zu ergänzen, aber in jeder Hinsicht unberührt zu lassen“. (3) Abgesehen von den äußerst vagen Bestimmungen dieser Stellen gibt es mehrere Fragen, die von den Regierungen und dem Europäischen Parlament beantwortet werden müssen: Wessen nationales Recht soll gelten – das des Sitzes der Plattformen oder das der Nutzer*innen? Wenn diese Gremien „verbindliche“ Entscheidungen treffen, wie es Art. 18 vorschlägt, welche Rechtsnatur haben diese Gremien dann? Ist es überhaupt möglich, ihre Entscheidungen anzufechten, oder haben sie das letzte Wort in inhaltlichen Fragen? Wenn ja, was sind die Konsequenzen für meine grundsätzlichen Möglichkeiten des Rechtsschutzes?

Mit all diesen Fragen und der komplementären Natur dieses Gremiums im Hinterkopf sollte der DSA also zunächst den gerichtlichen Rechtsschutz stärken und den Nutzer*innen die Möglichkeit geben, in ihrem nationalen Rechtssystem Klage zu erheben. Das ist der Zugang zum Recht in seiner stärksten Form.

Eilverfahren – im EU-Recht bereits bekannt

HateAid ist der Meinung, und das Europäische Parlament hat sich dafür ausgesprochen, dass die endgültigen Entscheidungen über Online-Inhalte den Gerichten vorbehalten bleiben müsse. Der Rechtsstaat ist der beste Weg, um die Meinungsfreiheit vor willkürlichen Entscheidungen von Online-Plattformen zu schützen. Aber wie können sie Nutzer*innen an Gerichte verweisen, die unter nicht zumutbaren Bedingungen erreichbar sind? Und auf Verfahren, die mehr als ein Monatsgehalt kosten und bis zu einem Jahr dauern können? Derzeit ist der Weg zu verbindlichen Entscheidungen für Einzelpersonen lang und mühsam, weshalb die Kommission alternative Wege vorschlägt. Das Europäische Parlament sollte sich nun darauf konzentrieren, Nutzer*innen die Möglichkeit zu geben, eine gerichtliche Überprüfung zu vernünftigen und erschwinglichen Bedingungen anzustreben – und den Zugang zur Justiz in seinen Wurzeln zu gewährleisten, um die Meinungsfreiheit zu garantieren.

Es gibt einen Weg, schnelle und effektive Entscheidungen mit der Garantie einer gerichtlichen Regelung zu verbinden. Sie nennt sich Eilverfahren oder auch Eilrechtsschutz und ihr Konzept ist für das EU-Recht nicht neu – es hat dieses Instrument bereits zuvor durch die Richtlinie 2004/48/EG im Bereich des geistigen Eigentums eingeführt.

Im Internet haben schnelle Entscheidungen und Handlungen eine radikal andere Bedeutung als in der analogen Welt. Eine Minute online kann genauso viel bewirken wie ein Jahr auf einer Plakatwand in deiner Stadt. Deshalb brauchen wir schnelle Entscheidungen – aber gleichzeitig wollen wir, dass diese Entscheidungen unter rechtsstaatlichen Bedingungen getroffen werden. Zusammenfassende Verfahren sind eine Form der Prozessführung, die schnelle Maßnahmen ermöglichen, um weiteren Schaden zu verhindern, wenn der Fall klar genug ist. Zusammenfassende Verfahren können die Situation aller Online-Nutzer*innen bei der Durchsetzung ihrer Rechte gegenüber Online-Plattformen deutlich verbessern.

Kontaktstelle in deinem Land, in deiner Sprache

Um ein Eilverfahren zu ermöglichen, muss ein weiterer Schritt unternommen werden: Nutzer*innen brauchen eine effektive Möglichkeit, mit Online-Plattformen in Kontakt zu treten. Deshalb schlagen wir vor, jede Online-Plattform zu verpflichten, in jedem Mitgliedstaat eine*n Zustellungsbevollmächtigte*n für alle Arten von Gerichtsverfahren im Zusammenhang mit der Moderation von Inhalten zu benennen. Diese*r Zustellungsbevollmächtigte soll gezielt die rechtsverbindliche Zustellung ermöglichen. Du als Nutzer*in solltest in der Lage sein, die Plattform direkt und transparent in deinem Heimatmitgliedstaat zu kontaktieren, wenn du deine Rechte durchsetzen willst, und zwar in einer der Amtssprachen deines Landes.

Was den Anschein erweckt, als würde die Kommission die Plattformen durch die Einführung eine*r obligatorische*n einheitlichen Ansprechpartner*in oder eine*r Rechtsvertreter*in effektiv dazu zwingen, zugänglicher zu werden, erleichtert nur die Kommunikation zwischen der Plattform und den Behörden. Dies lässt Privatpersonen nur sehr wenige Möglichkeiten, selbst mit Plattformen in Kontakt zu treten, und gibt den Plattformen einen sehr großen Vorwand, sich nicht weiter darum zu bemühen, ihr Unternehmen für die Nutzer*innen zugänglicher zu machen.

Die direkte Kontaktaufnahme mit Plattformen über eine Kontaktstelle in jedem Mitgliedstaat in der jeweiligen Amtssprache ist eine einfache, aber wirkungsvolle Idee. Den Nutzer*innen Macht zu geben, könnte für die Big Tech genauso unangenehm sein, wie es für ihre Nutzer*innen ermächtigend ist.

Alle Nutzer*innen verdienen eine Rechtssicherheit

Es stimmt, dass der Zugang zur Justiz im Bereich der illegalen Hassrede derzeit prekär ist. Und auch wenn man die außergerichtliche Einigung wohl als Notlösung bezeichnen könnte, haben Betroffene von Online-Gewalt und alle Nutzer*innen Rechtssicherheit verdient. Gerade in Zeiten, in denen sich die EU um den Schutz der Rechtsstaatlichkeit bemüht. Im digitalen Umfeld sollte das nicht anders sein.

Belege:

(1) Statistik der Generalstaatsanwaltschaft Frankfurt am Main/Hessen.

(2) Policy Brief „notice and (NO) action“: Lessons (not) learned from testing the content moderation systems of very large social media platforms. Counter Extremism Project, Juni 2021.

(3) Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über einen Binnenmarkt für digitale Dienste (Digital Services Act) und zur Änderung der Richtlinie 2000/31/EG, Erwägungsgrund 44, S.27.

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.



    Bitte fülle noch das Captcha aus*

    Captcha
    6 + 3 = ?
    Reload

    Mehr Infos in unserer Datenschutzerklärung. *