Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da!

Schreibe eine E-Mail an:

beratung@hateaid.org 

Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Do 15 – 18 Uhr

Chatte mit uns:* Fr 11 – 14 Uhr

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Erstatte direkt eine Anzeige! 

 



Helft mir!

Aus dem Schatten: Shadow Banning und die Folgen 

Wir haben einen Blick hinter die Schatten des Internets geworfen. Dafür mussten wir nicht einmal in das sogenannte „Darknet”, sondern einfach auf die Plattformen, die wir alle täglich nutzen. Dort findet im Verborgenen ein Phänomen statt, das sich Shadow Banning nennt.

Wie wir aus Gesprächen mit unserer Beratung wissen, befürchten Betroffene und Expert*innen, dass Plattformen dabei Inhalte oder ganze Profile sperren oder einschränken, ohne die Creator*innen zu informieren.

Die Sorge dahinter: Bestimmte Meinungen und Themen werden so verdrängt oder stumm geschaltet. Und das kann politische und gesellschaftliche Debatten massiv beeinflussen.

Shadow Banning: Was steckt dahinter?

Shadow Banning (Englisch für Schattensperre) ist auch bekannt unter den Begriffen Ghost Banning oder Comment Ghosting. Sie bezeichnen das Sperren oder Einschränken von Social-Media-Kanälen oder einzelnen Posts seitens der Plattformbetreibenden, ohne dass die betroffenen Nutzer*innen darüber informiert werden.

Genau diese fehlende Information ist das Tückische bei Shadow Bans. Ihre Inhalte oder Profile bleiben für die Betroffenen selbst sichtbar, während Follower*innen diese nicht mehr angezeigt bekommen. Somit können sich Nutzer*innen nie ganz sicher sein, ob ihre Inhalte oder Kanäle für andere sind.

Die fehlende Transparenz macht es für Betroffene nahezu unmöglich, sich zu beschweren oder der Sperre zu widersprechen.

Wenn ich Vergewaltigung oder Mord auf TikTok klar benenne oder diese Phänomene sichtbar mache, merke ich, dass meine Videos oder Kommentare darunter weniger ausgestrahlt werden.”

Alina Kuhl aka „TheMondayTalks”, Influencerin

Das Dilemma der heimlichen Sperren

Das Phänomen stellt ein Dilemma dar. Denn die Plattformbetreibenden argumentieren, dass sie mit solchen Sperren gegen Richtlinienverstöße und Spam-Inhalte vorgingen. Dass sie die Nutzer*innen im Unwissen lassen, diene dazu, die Erstellung neuer Profile zu verhindern.

Kritiker*innen stellen dem allerdings gegenüber, dass Shadow Bans dazu genutzt werden würden, bestimmte Meinungen auf den Plattformen zu unterdrücken.

Mit unserem Content wollen wir sexuelle Bildungsarbeit machen. Doch immer häufiger haben wir das Gefühl, dass die Inhaltsmoderation von Instagram und TikTok nicht zwischen sexualisierten Inhalten oder sexueller Diskriminierung und Aufklärung und Empowerment zu diesen Themen unterscheiden kann. Fatal für die Sichtbarkeit von queerem Leben, denn so wird auch Aufklärungsinhalt gesperrt.

Saskia und Lui Michalski aka „die Michalskis”, Influencer*innen

Viele kritisieren auch die Fehleranfälligkeit der Systeme, die für die Überprüfung von Community-Verstößen eingesetzt werden. 2022 gab zum Beispiel TikTok zu, dass viele Beiträge unrechtmäßig eingeschränkt wurden.

Intransparenz und Mutmaßungen

Viele Nutzer*innen bemerken den Shadow Ban oft erst dadurch, dass Likes, die Reichweite oder Interaktionen abnehmen. Betroffene, mit denen wir bisher gesprochen haben, haben das Gefühl, dass gerade bei Themen wie Sexualität, sexualisierte Gewalt oder Tierleid Shadow Bans greifen und so Aufklärungs-Content erschweren. Einige beobachten, dass auch andere politische Themen durch Shadow Banning verdrängt oder eingeschränkt werden.

Die Influencerin Kim Hoss erlebt seit einigen Wochen, dass die Ansichten ihrer Instagram Storys massiv schwanken: Manchmal sind es 25.000, manchmal 3.000. Auch ihre Follower*innen schreiben ihr, dass sie ihren Content nicht mehr angezeigt bekommen.

Doch genau kann sie die Hintergründe dieser Schwankungen nicht greifen. Deswegen hat sie schonmal ein Experiment durchgeführt, bei dem sie nur noch Videos mit Beauty-Filtern und niedlicher Stimmlage veröffentlicht hat.

Ihr Fazit: Die Views haben in dieser Zeit deutlich zugenommen. Das kann an allgemeinen Algorithmen oder dem Interesse der Nutzer*innen liegen oder daran, dass ihr sonstiger Content ohne ihr Wissen gesperrt wird.

Diese Unklarheit eint die Betroffenen und zeigt das Problem vom Shadow Banning. Doch nicht nur die betroffenen User*innen bleiben im Ungewissen. Auch Politiker*innen oder Expert*innen in der Software-Entwicklung können das Phänomen nicht vollumfassend greifen, so eine Studie der Yale School of Management.

Die Plattformen schulden Transparenz, nicht nur für die Betroffenen, sondern auch rechtlich gesehen. In einem der Beratungsgespräche wurde auch die Vermutung aufgestellt, dass die Plattform-Mitarbeitenden selbst keinen Einfluss auf die Sichtbarkeiten hätten. Doch auch hier gibt es keine Beweise, ob dies stimmt oder nur als Vorwand genutzt wird.

Mit Recht gegen Shadow Banning?  

Plattformen sind nach dem DSA verpflichtet, Nutzer*innen über Inhaltsmoderationen wie Shadow Banning zu informieren und diese zu begründen. Erfolgt das nicht, fehlt es an der gesetzlich vorgeschriebenen Transparenz.”

Katharina Goede, Juristin bei HateAid

Portraitfoto von Katharina Goede, Juristin bei HateAid

Der Digital Services Act (DSA) schreibt Plattformen vor, in ihrer Inhaltsmoderation transparent zu sein. Wenn Plattformen Inhalte oder Accounts in ihrer Sichtbarkeit einschränken, ohne die betroffene Person darüber zu informieren und die Maßnahme zu begründen, verstoßen sie gegen Artikel 17 des DSA.

Dieser besagt nämlich, dass Plattformen bei Sichtbarkeitseinschränkungen, also auch bei Shadow Banning, ihre Entscheidung begründen oder die Betroffenen darüber informieren müssen.

Außerdem verpflichten Artikel 14 und 15 des DSA Plattformen dazu, offenzulegen, wie sie Inhalte moderieren – auch wenn sie nur die Sichtbarkeit einschränken.

Plattformen sollen in ihren AGB klar angeben, aus welchen Gründen sie ihre Dienste einschränken können. Setzen sie Shadow Banning ein, ohne dass diese Gründe in den AGB stehen oder im Transparenzbericht erklärt werden, ist das problematisch.

Mehr Transparenz für Meinungsfreiheit

Plattformen müssen sicherstellen, dass Menschenrechte wie die Meinungsfreiheit eingehalten werden. Das gilt auch beim Moderieren oder Sperren von Inhalten.

Deswegen sollen die Plattformen nach dem DSA Transparenz in ihren Prozessen sicherstellen, damit User*innen Entscheidungen nachvollziehen können und die Verunsicherung aufhört.

Nur so ist die Teilhabe an einer demokratischen Debattenkultur und politische Bildungsarbeit auf digitalen Plattformen möglich.

BMJ Förder-Logo

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.



    Bitte fülle noch das Captcha aus*

    5 * 2 = ?
    Reload

    Bitte geben Sie die im CAPTCHA angezeigten Zeichen ein, um sicherzustellen, dass Sie ein Mensch sind.

    Mehr Infos in unserer Datenschutzerklärung. *