Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da! 

Schreibe eine E-Mail an:


Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Di 15 – 18 Uhr | Do 16 – 19 Uhr

Chatte mit uns:* Mi 15 – 18 Uhr | Fr 11 – 14 Uhr

*Bitte akzeptiere die Cookies, um mit uns zu chatten.

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Erstatte direkt eine Anzeige! 



Helft mir!

The DSA: Victims of online violence urgently need access to justice

Imagine your face is photoshopped on a naked image and published on Facebook, saying that it’s you. You decide to report it, but you receive no reaction, no help by the platform. Would your sense of justice tell you to fight for your rights before courts?  
In two years of consulting and providing litigation financing for victims of online violence, HateAid has learned the following: If you are willing to take substantial financial risks and hang around for long enough, the justice system might as well have your back. If not, abusive posts and comments will stay up on the virtual wall, and platforms like Facebook will continue milking the cash cow with content that should never have been posted in the first place. We argue that this status quo is unbearable. And the proposed new EU platform regulation law, Digital Services Act, has overlooked necessary measures to enforce our right to access to justice.   

Here’s how to fix it for victims of online violence.  

Two notice and take-down letters later, Twitter still did not act 

HateAid supports those affected by digital violence on Social Media Platforms daily. What we see is that going to court is very tricky at times, exhausting always.  
One of our cases is exemplary for many others: A well-known German journalist was confronted with posts containing sexualized violence and insults directed at her based on her political views. She decided to file a criminal complaint. The platform denied information about perpetrators’ identities to the prosecutors. Which is why our client chose a civil procedure to seek a court order allowing the platform to provide information. While it took a couple of further steps until identification of the perpetrators was successful, the platform still did not delete the comments in question, even though there was a court order ruling them to be illegal. Two notice & take-down letters later, Twitter still did not act. Our client filed another lawsuit against the platform awaiting it’s decision now for 7 months – the defamatory posts however will stay visible throughout all these procedures spreading all over the internet unhindered. 

Journalists and reporters are among one of the groups particularly exposed to online violence on social media platforms. Earlier this year Reporters Without Borders sued Facebook for failing their promise to provide “safe” and “errorfree“ online environment based on a large-scale proliferation of hate speech and false information on its networks. 

On the www, no one has 2 years to wait 

Generally, criminal complaints in Germany in the field of illegal hate speech are rarely successful. Already the very basic first step of identification of the perpetrators can only be achieved in around one third (28 %) of the cases, chances varying from Facebook with 66 % to Twitter with 7 %, to Telegram, where it is nearly impossible. (1) And if the long journey of identification is successful, litigation will be as lengthy, complex and coming with high financial risks, most of the times adding up to 4 000 € – 5 000 €. It is not rare that 2 instances of litigation take 2 years.  
So, with prosecution in many cases being ineffective, and financial risk to undertake litigation – high, contacting the platforms directly by legally asking for removal of the content may be the last option to achieve the deletion of illegal content in question.  
Technically, this option brings advantages – bothersome procedures can be avoided, and result seen much quicker. However, in reality, it plays out differently.  
Platforms are aware of this imbalance of power between them and us, their users. They rarely remove content – according to the Counter Extremism Project, the overall average takedown rate of illegal content by very large platforms (gatekeepers) based on user notices is 42% (2) – and their decisions are highly arbitrary, as seen in our entry example case.  
And before you can try your luck, you first have to play a game of cache-cache – search the imprint for an address and struggle with legally secure delivery of documents abroad that is necessary for litigation. We still do not know if the last letter we sent to Twitter 9 months ago on behalf of a client has reached their headquarters.  

DSA fails to strengthen judicial redress for users 

The fast-paced digital environment has put our judicial systems, laws and policy frameworks under a stress-test, and users are the ones suffering from this legal uncertainty the most.  
So how does the current proposal of the DSA face the problem of arbitrary decisions and high-threshold access to justice in the area of illegal hate speech online? Instead of strengthening the rule of law as guaranteed by national courts, the Commission attempts to build a parallel universe by installing a so called out-of-court dispute settlement body. While it might be helpful, it does not provide a complete solution.  

Generally, the body is supposed to decide on unsettled content moderation cases as a kind of “final instance” after the internal complaint handling.  The idea behind this, as the Commission proposes, is to “complement, yet leave unaffected in all respects, the possibility to seek judicial redress”. (3)  Apart from the extremely vague provisions of these bodies, there are several issues that must be answered by the Governments and European Parliament: Whose national law shall be applicable – the platforms’ establishment or the users’? If these bodies make “binding” decisions, as Art. 18 proposes, what is the legal nature of those bodies? Is it even possible to challenge their decisions, or do they have the final say on content questions? If so, what are the consequences for my basic options of judicial redress?   
So, with all those questions and complementary nature of this body in mind, the DSA, first, should strengthen judicial redress and empower users’ by widening possibilities to take legal action in their national judicial system. Which is access to justice in its most powerful shape. 

Summary proceedings – known in the EU law already 

HateAid believes, and the European Parliament has voiced, that the final decisions on online content must be reserved for courts. The rule of law is the best way to protect freedom of expression from arbitrary decision making by online platforms. But how can you refer users to courts that cannot be accessed under reasonable conditions? And to proceedings that may cost you more than a month’s salary and take up to one year? Currently, the path to binding decisions for individuals is long and exhausting, which is why the Commission is proposing alternative means. The European Parliament should now focus on enabling users to seek judicial review at reasonable and affordable conditions – and to ensure access to justice in its roots to guarantee freedom of expression.  
There is a way to combine quick and effective decisions and the guarantee of a court rule. It is called Summary Proceedings and its concept is not new to the EU law – it has introduced this instrument before through the Directive 2004/48/EC in the field of intellectual property.  

On the internet, quick decisions and actions have a radically different importance compared to the analogue world. One minute online can be just as impactful as one year on a billboard in your city. Therefore, we need quick decisions – but at the same time, we want those decisions to be made under the rule of law. Summary proceedings are a way of litigation that allow quick actions to prevent further damage if the case is clear enough. Summary proceedings can significantly improve the situation of all online users when enforcing their rights against online platforms. 

Point of contact in your country, in your language 

One additional step must be taken to make summary proceedings possible. Users need an effective means to contact online platforms. This is why we suggest that every online platform should be obliged to appoint an authorised recipient for all kinds of legal proceedings concerning content moderation in every Member State. This authorised recipient will dedicatedly enable legally binding delivery. You as a user should be able to contact the platform directly and transparently in your home Member State, whenever you seek to enforce your rights, in one of the official languages of your country.  

What may seem like the Commission is effectively forcing platforms to become more approachable by introducing a mandatory single point of contact or a legal representative, it only facilitates communication between the platform and authorities. This leaves private individuals with very little opportunities to contact platforms themselves and gives a very big excuse for platforms to not further bother making their company more approachable to users.  

Contacting platforms directly through a point of contact in each Member State, in their official language is a simple yet powerful idea. Giving power to users might be as uncomfortable to the Big Tech, as empowering to their users.  

It is true that access to justice in the field of illegal hate speech currently is precarious. And even though one could probably call the out-of-court settlement a fixer-upper, victims of online violence and all users deserve a legal certainty. Especially in times when the EU is seeking to protect the rule of law. Digital environment should be no different.  

List of References: 

(1) Statistics provided by the General Attorney’s office in Frankfurt am Main/Hesse. 

(2) Policy Brief “notice and (NO) action”: Lessons (not) learned from testing the content moderation systems of very large social media platforms. Counter Extremism Project, June 2021. 

(3) Proposal for a Regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC, Recital 44, p.27. 

Der DSA: Betroffene von digitaler Gewalt brauchen dringend Zugang zur Justiz

Stell dir vor, dein Gesicht wird auf ein Nacktbild gephotoshopped und auf Facebook veröffentlicht, mit dem Hinweis, dass du das seist. Du beschließt, das zu melden, aber du erhältst keine Reaktion, keine Hilfe von der Plattform. Würde dir dein Gerechtigkeitssinn sagen, dass du für deine Rechte vor Gericht kämpfen solltest?

In zwei Jahren der Beratung und Prozessfinanzierung von und für Betroffene von digitaler Gewalt hat HateAid Folgendes gelernt: Wenn du bereit bist, ein erhebliches finanzielles Risiko einzugehen und lange genug durchzuhalten, kann dir die Justiz durchaus den Rücken stärken. Wenn nicht, bleiben beleidigende Beiträge und Kommentare an der virtuellen Wand hängen, und Plattformen wie Facebook werden weiterhin die Cashcow mit Inhalten melken, die gar nicht erst hätten gepostet werden dürfen. Wir argumentieren, dass dieser Status quo untragbar ist. Und das vorgeschlagene neue EU-Gesetz zur Plattformregulierung, der Digital Services Act, hat notwendige Maßnahmen zur Durchsetzung unseres Rechts auf Zugang zur Justiz übersehen.

Dabei läge die Lösung so nah …

Melden und Löschen? Twitter handelt nicht …

HateAid unterstützt täglich Betroffene von digitaler Gewalt auf Social-Media-Plattformen. Wir sehen, dass es manchmal sehr schwierig ist, vor Gericht zu gehen, und immer anstrengend.
Einer unserer Fälle ist beispielhaft für viele andere: Eine bekannte deutsche Journalistin wurde mit Posts konfrontiert, die sexualisierte Gewalt und Beleidigungen gegen sie aufgrund ihrer politischen Ansichten enthielten. Sie entschloss sich, Strafanzeige zu erstatten. Die Plattform verweigerte der Staatsanwaltschaft Informationen über die Identität der Täter*innen. Deshalb wählte unsere Mandantin einen zivilrechtlichen Weg, um eine gerichtliche Verfügung zu erwirken, die der Plattform die Auskunftserteilung erlaubt. Es erforderte zwar einige weitere Schritte, bis die Identifizierung der Täter*innen gelang, aber die Plattform löschte die fraglichen Kommentare immer noch nicht, obwohl ein Gerichtsbeschluss vorlag, der sie für rechtswidrig erklärte. Zwei Aufforderungen zur Löschung später hat Twitter immer noch nicht gehandelt. Unsere Klientin reichte eine weitere Klage gegen die Plattform ein und wartet nun seit sieben Monaten auf eine Entscheidung – die diffamierenden Beiträge bleiben jedoch während all dieser Verfahren sichtbar und verbreiten sich ungehindert im Internet.

Journalist*innen und Reporter*innen gehören zu einer der Gruppen, die der Online-Gewalt auf Social-Media-Plattformen besonders ausgesetzt sind. Anfang dieses Jahres hat Reporter ohne Grenzen Facebook verklagt, weil das Unternehmen sein Versprechen, eine „sichere“ und „fehlerfreie“ Online-Umgebung zu bieten, nicht eingehalten hat: Hassreden und Falschinformationen haben sich ungehindert in den Netzwerken des Unternehmens in großem Umfang verbreitet.

Im WWW hat niemand 2 Jahre Zeit

Generell sind Strafanzeigen in Deutschland im Bereich der illegalen Hassrede selten erfolgreich. Schon der grundlegende erste Schritt, die Identifizierung der Täter*innen, kann nur in etwa einem Drittel (28 %) der Fälle erreicht werden, wobei die Chancen von Facebook mit 66 % über Twitter mit 7 % bis hin zu Telegram, wo es nahezu unmöglich ist, variieren. (1) Und wenn der lange Weg der Identifizierung erfolgreich ist, ist die Rechtsverfolgung ebenso langwierig, komplex und mit hohen finanziellen Risiken verbunden, die sich meist auf 4.000 € – 5.000 € belaufen. Nicht selten dauern 2 Instanzen 2 Jahre.

Da die strafrechtliche Verfolgung in vielen Fällen unwirksam ist und das finanzielle Risiko eines Rechtsstreits hoch ist, kann es die letzte Möglichkeit sein, die Plattformen direkt zu kontaktieren und auf legalem Wege die Löschung der betreffenden illegalen Inhalte zu verlangen.
Technisch gesehen bringt diese Option Vorteile mit sich – lästige Verfahren können vermieden werden, und das Ergebnis ist viel schneller sichtbar. In der Realität sieht es jedoch anders aus.
Die Plattformen sind sich dieses Ungleichgewichts der Macht zwischen ihnen und uns, ihren Nutzer*innen, bewusst. Sie entfernen nur selten Inhalte – laut dem Counter Extremism Project liegt die durchschnittliche Takedown-Rate illegaler Inhalte durch sehr große Plattformen (Gatekeeper) aufgrund von Nutzer*innenhinweisen bei 42 % (2) – und ihre Entscheidungen sind höchst willkürlich, wie in unserem Eingangsbeispielfall zu sehen ist.
Und bevor man sein Glück versuchen kann, muss man erst einmal lange suchen – im Impressum sind die Adressen gut versteckt. Dann muss man sich mit der rechtssicheren Zustellung von Dokumenten ins Ausland herumschlagen, die für einen Rechtsstreit notwendig ist. Wir wissen immer noch nicht, ob der letzte Brief, den wir vor neun Monaten im Auftrag eines Mandanten an Twitter geschickt haben, deren Zentrale erreicht hat.

DSA versagt bei der Stärkung des Rechtsschutzes für Nutzer*innen

Das schnelllebige digitale Umfeld hat unsere Rechtssysteme, Gesetze und politischen Rahmenbedingungen einem Stresstest unterzogen, und die Nutzer*innen sind diejenigen, die unter dieser Rechtsunsicherheit am meisten leiden.
Wie also begegnet der aktuelle Vorschlag der DSA dem Problem willkürlicher Entscheidungen und schwierigem Zugang zur Justiz im Bereich illegaler Hassreden im Internet? Anstatt die Rechtsstaatlichkeit zu stärken, wie sie von nationalen Gerichten garantiert wird, versucht die Kommission, ein Paralleluniversum aufzubauen, indem sie eine sogenannte außergerichtliche Streitbeilegungsstelle installiert. Das mag zwar hilfreich sein, stellt aber keine vollständige Lösung dar.

Generell soll die Stelle als eine Art „letzte Instanz“ nach der internen Beschwerdebearbeitung über ungeklärte Content-Moderationsfälle entscheiden. Die Idee dahinter ist, wie die Kommission vorschlägt, „die Möglichkeit des gerichtlichen Rechtsschutzes zu ergänzen, aber in jeder Hinsicht unberührt zu lassen“. (3) Abgesehen von den äußerst vagen Bestimmungen dieser Stellen gibt es mehrere Fragen, die von den Regierungen und dem Europäischen Parlament beantwortet werden müssen: Wessen nationales Recht soll gelten – das des Sitzes der Plattformen oder das der Nutzer*innen? Wenn diese Gremien „verbindliche“ Entscheidungen treffen, wie es Art. 18 vorschlägt, welche Rechtsnatur haben diese Gremien dann? Ist es überhaupt möglich, ihre Entscheidungen anzufechten, oder haben sie das letzte Wort in inhaltlichen Fragen? Wenn ja, was sind die Konsequenzen für meine grundsätzlichen Möglichkeiten des Rechtsschutzes?

Mit all diesen Fragen und der komplementären Natur dieses Gremiums im Hinterkopf sollte der DSA also zunächst den gerichtlichen Rechtsschutz stärken und den Nutzer*innen die Möglichkeit geben, in ihrem nationalen Rechtssystem Klage zu erheben. Das ist der Zugang zum Recht in seiner stärksten Form.

Eilverfahren – im EU-Recht bereits bekannt

HateAid ist der Meinung, und das Europäische Parlament hat sich dafür ausgesprochen, dass die endgültigen Entscheidungen über Online-Inhalte den Gerichten vorbehalten bleiben müsse. Der Rechtsstaat ist der beste Weg, um die Meinungsfreiheit vor willkürlichen Entscheidungen von Online-Plattformen zu schützen. Aber wie können sie Nutzer*innen an Gerichte verweisen, die unter nicht zumutbaren Bedingungen erreichbar sind? Und auf Verfahren, die mehr als ein Monatsgehalt kosten und bis zu einem Jahr dauern können? Derzeit ist der Weg zu verbindlichen Entscheidungen für Einzelpersonen lang und mühsam, weshalb die Kommission alternative Wege vorschlägt. Das Europäische Parlament sollte sich nun darauf konzentrieren, Nutzer*innen die Möglichkeit zu geben, eine gerichtliche Überprüfung zu vernünftigen und erschwinglichen Bedingungen anzustreben – und den Zugang zur Justiz in seinen Wurzeln zu gewährleisten, um die Meinungsfreiheit zu garantieren.

Es gibt einen Weg, schnelle und effektive Entscheidungen mit der Garantie einer gerichtlichen Regelung zu verbinden. Sie nennt sich Eilverfahren oder auch Eilrechtsschutz und ihr Konzept ist für das EU-Recht nicht neu – es hat dieses Instrument bereits zuvor durch die Richtlinie 2004/48/EG im Bereich des geistigen Eigentums eingeführt.

Im Internet haben schnelle Entscheidungen und Handlungen eine radikal andere Bedeutung als in der analogen Welt. Eine Minute online kann genauso viel bewirken wie ein Jahr auf einer Plakatwand in deiner Stadt. Deshalb brauchen wir schnelle Entscheidungen – aber gleichzeitig wollen wir, dass diese Entscheidungen unter rechtsstaatlichen Bedingungen getroffen werden. Zusammenfassende Verfahren sind eine Form der Prozessführung, die schnelle Maßnahmen ermöglichen, um weiteren Schaden zu verhindern, wenn der Fall klar genug ist. Zusammenfassende Verfahren können die Situation aller Online-Nutzer*innen bei der Durchsetzung ihrer Rechte gegenüber Online-Plattformen deutlich verbessern.

Kontaktstelle in deinem Land, in deiner Sprache

Um ein Eilverfahren zu ermöglichen, muss ein weiterer Schritt unternommen werden: Nutzer*innen brauchen eine effektive Möglichkeit, mit Online-Plattformen in Kontakt zu treten. Deshalb schlagen wir vor, jede Online-Plattform zu verpflichten, in jedem Mitgliedstaat eine*n Zustellungsbevollmächtigte*n für alle Arten von Gerichtsverfahren im Zusammenhang mit der Moderation von Inhalten zu benennen. Diese*r Zustellungsbevollmächtigte soll gezielt die rechtsverbindliche Zustellung ermöglichen. Du als Nutzer*in solltest in der Lage sein, die Plattform direkt und transparent in deinem Heimatmitgliedstaat zu kontaktieren, wenn du deine Rechte durchsetzen willst, und zwar in einer der Amtssprachen deines Landes.

Was den Anschein erweckt, als würde die Kommission die Plattformen durch die Einführung eine*r obligatorische*n einheitlichen Ansprechpartner*in oder eine*r Rechtsvertreter*in effektiv dazu zwingen, zugänglicher zu werden, erleichtert nur die Kommunikation zwischen der Plattform und den Behörden. Dies lässt Privatpersonen nur sehr wenige Möglichkeiten, selbst mit Plattformen in Kontakt zu treten, und gibt den Plattformen einen sehr großen Vorwand, sich nicht weiter darum zu bemühen, ihr Unternehmen für die Nutzer*innen zugänglicher zu machen.

Die direkte Kontaktaufnahme mit Plattformen über eine Kontaktstelle in jedem Mitgliedstaat in der jeweiligen Amtssprache ist eine einfache, aber wirkungsvolle Idee. Den Nutzer*innen Macht zu geben, könnte für die Big Tech genauso unangenehm sein, wie es für ihre Nutzer*innen ermächtigend ist.

Alle Nutzer*innen verdienen eine Rechtssicherheit

Es stimmt, dass der Zugang zur Justiz im Bereich der illegalen Hassrede derzeit prekär ist. Und auch wenn man die außergerichtliche Einigung wohl als Notlösung bezeichnen könnte, haben Betroffene von Online-Gewalt und alle Nutzer*innen Rechtssicherheit verdient. Gerade in Zeiten, in denen sich die EU um den Schutz der Rechtsstaatlichkeit bemüht. Im digitalen Umfeld sollte das nicht anders sein.


(1) Statistik der Generalstaatsanwaltschaft Frankfurt am Main/Hessen.

(2) Policy Brief „notice and (NO) action“: Lessons (not) learned from testing the content moderation systems of very large social media platforms. Counter Extremism Project, Juni 2021.

(3) Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über einen Binnenmarkt für digitale Dienste (Digital Services Act) und zur Änderung der Richtlinie 2000/31/EG, Erwägungsgrund 44, S.27.

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.

    Mehr Infos in unserer Datenschutzerklärung. *