Gemischte Bilanz zum Digital Services Act
Historische Schritte gegen bildbasierte sexualisierte Gewalt auf Porno-plattformen, aber Versagen bei Stärkung der Betroffenen von Hass im Netz
Am Donnerstag hat das Europäische Parlament (EP) seine Position zum Digital Services Act (DSA), dem neuen EU-Internetgesetz, beschlossen. Die neu eingeführten Bestimmungen könnten das Internet für Tausende von Betroffenen von digitaler Gewalt verändern. Dafür müssen diese nun in den anstehenden Trilog-Verhandlungen Unterstützung durch die übrigen EU-Institutionen finden. HateAid begrüßt, dass einige der Forderungen zum Schutz vor digitaler Gewalt erfüllt wurden. Die Beratungsstelle für Betroffene von digitaler Gewalt kritisiert jedoch, dass einer der wichtigsten Aspekte durch das EP übergangen wurde: Betroffene haben nach wie vor kein Recht, sich bei Plattformen zu beschweren, wenn diese die Entfernung von hasserfüllten Inhalten verweigern.
Meilenstein für Betroffene von bildbasierter sexueller Gewalt: Regulierungen für Porno-Plattformen
Die Entscheidung des Parlaments würde erstmals ein ernsthaftes Vorgehen gegen den Missbrauch von intimen Aufnahmen auf Pornoplattformen bewirken. Die neuen Regulierungen beinhalten neben einer Verifizierungspflicht für Personen, die Inhalte auf Pornoplattformen hochladen, auch spezifische Schulungen für Moderator*innen, die Aufnahmen sichten, und spezielle Meldewege für Betroffene, um Missbrauchsmaterial zu melden und zu entfernen. Dies wäre ein großer Fortschritt für alle, die von so genannten Rachepornos, Deepfakes und anderen Formen von bildbasierter Gewalt – mit überwältigender Mehrheit Frauen – betroffen sind.
Wissenschaftler*innen haben kürzlich aufgezeigt, dass der Missbrauch von Nacktaufnahmen erschreckend häufig vorkommt. Betroffene würden außerdem erhebliche Verzögerungen in der Entfernung der Aufnahmen auf Pornoplattformen beklagen. HateAid hat sich zusammen mit anderen zivilgesellschaftlichen Organisationen dafür eingesetzt, dass die Abgeordneten des EP bildbasierte sexuelle Gewalt als ein Problem anerkennen, das auch im DSA speziell aufgegriffen werden muss.
Dazu Anna-Lena von Hodenberg, Geschäftsführerin von HateAid:
„Der Missbrauch von Frauen auf Porno-Plattformen muss ein Ende haben! Deshalb ist dieser Beschluss ein Meilenstein, den alle, die sich gemeinsam mit HateAid dafür eingesetzt haben – von Betroffenen über NGOs bis hin zu Wissenschaftler*innen und Europaabgeordneten – feiern sollten. Das Ausmaß und die Folgen der bildbasierten sexuellen Gewalt sind verheerend, und ich freue mich, dass sich das Europäische Parlament dieser Sache endlich angenommen hat. Jetzt ist es an der Zeit, dass die nationalen Regierungen und der Europäische Rat die Bedeutung des Themas erkennen und handeln, indem sie die Position des Europäischen Parlaments unterstützen.“
Verbesserte Rechte für Nutzer*innen: Betroffene können sich an Behörden wenden, um Anordnungen gegen Plattformen zu erwirken
Darüber hinaus begrüßt HateAid, dass das EP die Forderung aufgenommen hat, die Rechte der Nutzer*innen zu schützen, wenn diese persönlich von illegalen Inhalten betroffen sind. Das EP will Betroffenen jetzt ermöglichen, sich an Behörden zu wenden und Anordnungen gegen Online-Plattformen zu erwirken, damit illegale Inhalte entfernt werden. Wenn beispielsweise eine Nutzerin online mit einer Morddrohung oder rassistischer Hetze angegriffen wird und die Plattform diese trotz Benachrichtigung nicht entfernt, kann sich die betroffene Person an Behörden wenden und eine an die Plattform gerichtete Anordnung zur Entfernung von Inhalten beantragen.
Einblicke in die Blackbox: Parlament stimmt für mehr Transparenz über Risiken und Auswirkungen
Sowohl die Verfahren zur Moderation von Inhalten als auch die von den Plattformen verwendeten Algorithmen sind derzeit als Geschäftsgeheimnis geschützt. Dies sei nicht gerechtfertigt, argumentierten HateAid und PeopleVsBigTech, eine breite internationale Koalition zivilgesellschaftlicher Organisationen. Denn diese hätten einen erheblichen Einfluss auf den öffentlichen Online-Diskurs und das Wohlergehen der Nutzer*innen. Auch die Enthüllungen der ehemaligen Meta-Mitarbeiterin Frances Haugen zeigten, wie Plattformen wie Facebook durch ihre Algorithmen hasserfüllte Inhalte bevorzugt verbreiten, um Gewinne zu erzielen.
Das EP will hier grundlegende Transparenzregeln einführen: Sehr große Online-Plattformen müssen die Risiken für die öffentliche Sicherheit, die Gesundheit, die Grundrechte und eine Reihe anderer Bereiche kritisch bewerten. Wären diese Maßnahmen früher eingeführt worden, hätten sie möglicherweise die negativen Auswirkungen auf die psychische Gesundheit von Teenagern verhindern können, die Berichten zufolge Instagram-Algorithmen verursacht haben sollen.
Abgeordnete bleiben hinter Versprechen zurück: Betroffene von Hatespeech haben keine Möglichkeit zur direkten Beschwerde
Bedauerlicherweise werden Betroffene digitaler Gewalt weiterhin unter den unrechtmäßigen Entscheidungen der Plattformen leiden. Wenn eine Plattform sich weigert, einen hasserfüllten Kommentar, eine Todesdrohung oder eine Verleumdung zu löschen, haben Betroffene nicht das Recht, sich direkt bei der Plattform zu beschweren. Sie haben auch keine Möglichkeit zur außergerichtlichen Streitbeilegung. Diese Privilegien sind ausschließlich Nutzer*innen vorbehalten, die sich über Inhalte beschweren wollen, die die Plattformen möglicherweise zu Unrecht gelöscht haben. HateAid findet das dadurch entstehende Zweiklassensystem zwischen Nutzer*innen unverständlich und ungerecht. Es lässt Millionen von Nutzer*innen, die von Hatespeech und Desinformation betroffen sind, schutzlos zurück. HateAid fordert den Europäischen Rat auf, seine Position bezüglich des gleichberechtigten Zugangs zu den Mechanismen, die in Artikel 17 und 18 des Trilogs festgelegt sind, beizubehalten.