Im Internet weiß niemand, dass du ein Troll bist. Der DSA: Fünf Empfehlungen
Erinnern Sie sich an Peter Stainers kultigen Cartoon mit der Bildunterschrift „Im Internet weiß niemand, dass Sie ein Hund sind“(1)? 28 Jahre später würde die passendere Version lauten: „Im Internet weiß niemand, dass du ein Troll bist.“ Große Online-Plattformen haben Milliarden von Menschen das Mikrofon in die Hand gegeben. Was mit dem Versprechen endloser Freiheit für diejenigen begann, die vorher keine Stimme hatten, wurde schnell zu einer Bühne für Hass und Hetze. Überwältigt von dem Hass, der uns online begegnet, fühlen sich viele von uns ungeschützt und damit unsicher, sich auszudrücken.
Wir werfen einen genaueren Blick auf den Silencing-Effekt, seine Verbindungen zu den rechtsextremen Hasskampagnen, das bestehende Dilemma zwischen Meinungsfreiheit und der Einschränkung von Hassrede und was der Digital Services Act leisten kann.
Angriff auf die Demokratie im Verborgenen
Meinungseinschränkende Gesetze und Repressionen in Südostasien haben nachweislich zur Selbstzensur der Menschen in der Region bezüglich ihrer politischen Äußerungen beigetragen. (2) Die Selbstzensur dient jedoch nicht nur dazu, sich vor staatlichen Eingriffen zu schützen. Da private Parteien, wie rechtsextreme Gruppierungen, strategisch marginalisierte Gruppen online angreifen, um sie zum Schweigen zu bringen, wird die Selbstzensur zu einem Werkzeug, das sowohl die Betroffenen als die Mitlesenden nutzen.
Jahrzehntelang hat der Ansatz der Selbstregulierung, der eine Gesetzeslücke nutzt, privaten Unternehmen erlaubt, Entscheidungen über Inhalte zu treffen – zu orchestrieren, was wir in unseren Social-Media-Feeds sehen und sogar zu beeinflussen, wen wir bei den nächsten Wahlen wählen. All das verpackt in ein milliardenschweres Geschäftsmodell. Jetzt versucht die EU endlich in einer Vorreiterrolle, mit dem Digital Services Act und dem Digital Markets Act einige Grundregeln für Online-Plattformen festzulegen.
Die Bedenken des Gesetzgebers und der Gesellschaft gegenüber den Big Tech Unternehmen, die über Inhalte entscheiden, drehen sich hauptsächlich um den Schutz der Meinungsfreiheit und des Datenschutzes. Wir sind überzeugt, dass die Meinungsfreiheit einen weiteren Feind hat, der aktiv Online-Plattformen nutzt, um demokratische Werte zu untergraben.
Eine der vielleicht größten Herausforderungen des Digital Services Act ist der Umgang mit Online-Gewalt und Angriffen auf unsere Demokratie, die unter dem Deckmantel des Schutzes der Meinungsfreiheit erfolgen.
Silencing als organisierter Akt der extremen Rechten
Organisierte Stürme digitaler Gewalt – hasserfüllte Kommentare und Posts, persönliche Beleidigungen, Verleumdungen und Drohungen gegen Familienmitglieder – das sind nur einige der Techniken, die organisierte rechtsextreme Gruppen wie Reconquista Germanica, die Alt-Right und die Identitäre Bewegung einsetzen, um Menschen, insbesondere Minderheiten, aus Online-Debatten herauszudrängen. (3) Und obwohl die Rechtsextremen eindeutig eine Minderheit sind, verstärken sie hasserfüllte Stimmen mit Bots und Re-Posts, so dass sie weit und breit ein Echo finden. Eine Studie des Instituts für Strategischen Dialog in Deutschland fand heraus, dass nur 5 % der Nutzer für 50 % aller Likes für hasserfüllte Kommentare auf Facebook verantwortlich sind. (4) Die Französ*innen haben sogar einen Begriff erfunden, um organisierte hasserfüllte Angriffe im Internet zu beschreiben – sie nennen es einen digitalen Überfall (französisch: raid numerique).
Social-Media-Accounts, die mit der extremen Rechten in Frankreich verbunden sind – insbesondere mit der identitären Bewegung – spielen eine zentrale Rolle bei der Erzeugung und Verbreitung von antiarabischen und/oder antinordafrikanischen, antimuslimischen und migrantenfeindlichen Inhalten im Internet. (5) Gegen Frauen gerichtete Unterdrückungstechniken sind oft sexualisiert, einschließlich Vergewaltigungsdrohungen und bildbasiertem Missbrauch.
Die Kosten des Dilemmas
Die Lawine des Online-Hasses zusätzlich zur algorithmischen Kuratierung von Inhalten, die oft solche hervorhebt, die emotional und bereits polarisierend, irreführend, extremistisch oder anderweitig problematisch sind (6), lässt keinen Raum für eine pluralistische Debatte. Vor allem dann nicht, wenn die Menschen eingeschüchtert werden: 54 % der Internetnutzer*innen in Deutschland trauen sich nicht mehr, ihre politische Meinung online zu äußern, und 47 % beteiligen sich aus Angst, selbst zu Betroffenen zu werden, überhaupt nicht mehr an Online-Diskussionen. (7) Die Umstehenden werden Teil der zum Schweigen Gebrachten. Dieser Effekt ist alarmierend und sollte einen Aufschrei hervorrufen, denn er verschiebt unsere öffentliche Debatte zugunsten derjenigen, die am lautesten schreien. Letztendlich bedroht er die Meinungsfreiheit, da das Internet nicht mehr ein sicherer Raum für alle ist.
Hinzu kommt, dass die Grenze zwischen digitaler und analoger Gewalt schnell verschwinden kann: „Twitter-Missbrauch hat mich dazu gebracht, ein Haussicherheitssystem zu kaufen“, teilte die Autorin und Aktivistin Jacklyn Friedman 2018 mit Amnesty International in deren Kampagne #ToxicTwitter. (8) Und das ist kein Einzelfall.
Angesichts der Tatsache, dass ein großer Teil der Bevölkerung in Deutschland durch digitale Gewalt zum Schweigen gebracht wird und ein anderer Teil befürchtet, dass die Löschung von Inhalten aufgrund von Entscheidungen privater Unternehmen die freie Meinungsäußerung einschränkt, klingt das Dilemma eher nach einer Zwickmühle.
Der von der Europäischen Kommission vorgelegte Vorschlag für den Digital Services Act, der einheitliche Regeln für digitale Dienste in der gesamten EU vorschlägt, muss eine Antwort finden, statt das Problem zu ignorieren – oder eine Lösung über die andere zu stellen. Bevor die politischen Entscheidungsträger die Ziellinie erreichen, verdient das Dilemma der Redefreiheit und der Begrenzung von Hassreden eine angemessene Aufmerksamkeit und Diskussion.
Was haben die Menschenrechtsgerichte dazu zu sagen?
Es gibt mehrere Fälle, die sich mit Hate Speech und Meinungsfreiheit befassen und die vom Europäischen Gerichtshof für Menschenrechte (EGMR) entschieden worden sind. (9) Sie unterscheiden sich jedoch von der Frage des Silencing dadurch, welche Rechtsgüter auf die „Waage der Menschenrechte“ geworfen werden.
2015, Delfi AS v. Estland. Der EGMR urteilte über ein Internet-Nachrichtenportal, das für Kommentare seiner Leser*innen haftbar gemacht wurde, die die Persönlichkeitsrechte anderer verletzten. Das Gericht hatte zu entscheiden, ob dies eine Verletzung von Artikel 10 der Konvention darstellt, der die Freiheit der Meinungsäußerung schützt – und entschied dagegen. (10) Die Persönlichkeitsrechte der durch die Kommentare Angegriffenen überwogen den Aspekt der Meinungsfreiheit des Internetportals und verlangten folglich, die Hassrede zu entfernen.
Aus juristischer Sicht eröffnet Silencing jedoch noch eine andere Dimension. Anstatt „Persönlichkeitsrechte“ und „Meinungsfreiheit“ einander gegenüberzustellen, behandelt Silencing die Abwägung von „Meinungsfreiheit“ versus „Meinungsfreiheit“. Dies ist ein Spannungsfeld, das noch recht unerforscht ist.
Um das Problem der Begrenzung von Hassreden anzugehen, müssen wir zunächst verstehen, welche konkreten Elemente es so schwer machen, es zu lösen. In unserem Kontext geht der größte Teil der systematischen Unterdrückung von Einzelpersonen aus. Das heißt, es ist indirekter und aus einer Menschenrechtsperspektive viel schwerer zu fassen als staatliche Zensur oder sogar private Zensur, die von privaten Unternehmen ausgeht.
Trotz dieser Unterschiede bleibt das Ergebnis dasselbe: Der Einzelne zögert, hat sogar Angst, seine Meinung zu äußern, aus Angst vor Repressionen – subjektiv unterscheidet sich das in vielen Fällen nicht von anderen Formen der Zensur.
Was kann der Gesetzgeber nun auf Verordnungsebene tun?
- Eine klare Kodifizierung auf EU-Ebene, dass illegale Inhalte gelöscht und geahndet werden, ist der erste Schritt, um das „Rechtsvakuum“ zu beenden.
Es ist wichtig, dass Nutzer*innen wissen, wann immer sie mit illegalen Inhalten im Internet konfrontiert werden und dagegen vorgehen wollen, ein System für sie bereitsteht, das sie auf effektive, zuverlässige und transparente Weise unterstützt. Das Internet wird oft als rechtsfreier Raum wahrgenommen, den systematisches Silencing ausnutzt. - Deutlich sichtbare, niedrigschwellige Meldewege, die nah an den betreffenden Inhalten sind.
Es sollten keine zusätzlichen persönlichen Daten erforderlich sein, um Plattformen über illegale Inhalte zu informieren. - Online-Plattformen sollten sieben Tage Zeit haben, gemeldete Inhalte zu prüfen.
Im bisherigen DSA-Vorschlag steht wird nur eine „zeitnahe Bewertung“ vorgeschlagen, was auch auf wochenlanges Warten hinauslaufen könnte. Doch im Internet ist auch eine Stunde eine lange Zeit. - Transparenz sollte durch eine verpflichtende Begründung für alle inhaltlichen Entscheidungen von Online-Plattformen gewährleistet werden.
Du hast ein Recht darauf zu erfahren, warum dein Inhalt gelöscht wurde, genauso wie du ein Recht darauf hast zu erfahren, warum ein diffamierender Beitrag über dich immer noch online ist. - Zugang zum Recht durch Einrichtung von Kontaktstellen in jedem Mitgliedsstaat und Schnellverfahren in Zivilsachen.
Wenn du dich an ein Gericht wendest, solltest du nicht einen Brief in einer Fremdsprache an ein Büro in Irland schicken müssen. In jedem Mitgliedsstaat sollte ein*e Rechtsvertreter*in verfügbar sein. Darüber hinaus würde die Einführung eines Schnellverfahrens in allen zivilrechtlichen Fällen, die Online-Gewalt betreffen, eine zeitnahe Reaktion ermöglichen.
Dies sind nur einige der Empfehlungen von HateAid zum Digital Services Act, speziell im Zusammenhang mit der Moderation von Online-Inhalten und dem Zugang zur Justiz. Lies mehr auf Englisch in unserer DSA-Positionierung.
Verweise
- Peter Steiner, The New Yorker, July 5, 1993.
- Ong, E. (2021). Online Repression and Self-Censorship: Evidence from Southeast Asia. Government and Opposition, 56(1), 141-162. doi:10.1017/gov.2019.18
- R.Ahmed, D.Pisoui, 2019. The Far Right Online: An Overview of Recent Studies. Voxpol. Viewed on 5/05/21
- P. kreißel, J.Ebner, A.Urban, J. Guhl, 2018. Hass Auf Knopfdruck. Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz. Institute for Strategic Dialogue, UK.
- C. Guerin, Z. Fourel, C. Gatewood, 2021. La pandémie de COVID-19 : terreau fertile pour la haine en ligne. Institute for Strategic Dialogue, UK.
- Lewandowsky, S., Smillie, L., Garcia, D., Hertwig, R., Weatherall, J., Egidy, S., Robertson, R.E., O’connor, C., Kozyreva, A., Lorenz-Spreen, P., Blaschke, Y. and Leiser, M., Technology and Democracy: Understanding the influence of online technologies on political behaviour and decision-making, EUR 30422 EN, Publications Office of the European Union, Luxembourg, 2020, ISBN 978-92-76-24088-4, doi:10.2760/709177, JRC122023.
- D. Geschke, A.Klaßen, M.Quent, C. Richter, 2019. #Hass im Netz: Der schleichende Angriff auf unsere Demokratie. Eine bundesweite repräsentative Untersuchung. Institut für Demokratie und Zivilgesellschaft, Germany. ISBN: 978-3-940878-41-0
- How experiencing abuse made you change the way you use the platform? Youtube. Uploaded by Amnesty International, 21/03/18.
- Press Unit, 2020. Factsheet: Hate Speech. European Court of Human Rights, 2020.
- ECHR. Case DELFI AS v Estonia, Application no. 64569/09 Judgement of 16 June 2015. Strasbourg, 2015.