Letzte Instanz BGH: Grundsatzverfahren gegen Meta
Update 19.02.2025: Der Bundesgerichtshof hat im Anschluss an die Verhandlung am 18.02.2025 entschieden, das Verfahren zunächst auszusetzen. Hintergrund ist, dass zunächst eine Entscheidung des Europäischen Gerichtshofs (EuGH) in einem dort anhängigen anderen Verfahren abgewartet werden soll. Erst im Anschluss kann das Verfahren fortgesetzt werden.
Der Grundsatzprozess Renate Künast gegen Meta ging heute vor dem Bundesgerichtshof in Karlsruhe in Revision. Das Verfahren könnte die Verantwortung von Plattformen für die Löschung illegaler Inhalte und den Schutz vor digitaler Gewalt final klären. Künast und die Menschenrechtsorganisation HateAid fordern die Übernahme von mehr Verantwortung der Plattformen gegenüber Nutzenden. Eine Entscheidung zum weiteren Verlauf des Verfahrens wird im Verlauf dieses Tages erwartet.
Die Klage auf Unterlassung und Schadensersatz durch Meta wurde von Renate Künast, MdB (Bündnis 90/Die Grünen) mit Unterstützung der Menschenrechtsorganisation HateAid eingereicht. Der Grund: Auf der Plattform Facebook wurde ein Renate Künast zugeschriebenes Falschzitat massenhaft verbreitet. Trotz mehrfacher Meldungen tauchte das verleumderische Meme wiederholt auf. Das Landgericht Frankfurt entschied 2022 in einem historischen Urteil, dass Meta nicht nur das jeweilige der Plattform gemeldete Meme löschen muss. Die Plattform sei auch verpflichtet, eigenständig nach sinn- und kerngleichen Posts des besagten Inhalts zu suchen und zu löschen. Meta hatte versucht darzulegen, dass dafür die technischen Voraussetzungen fehlten. Die Plattform sieht die Betroffenen in der Pflicht, die verleumderischen Inhalte selbst zu suchen und zu melden. Erst dann würde eine Löschung erfolgen. Das Gericht wies dies unter anderem mit dem Hinweis auf neue Möglichkeiten durch Künstliche Intelligenz und Bilderkennung zurück.
Dazu Renate Künast, MdB (Bündnis 90/Die Grünen):
„Lügen sind keine Meinung. Sie sind die Währung, die in den sozialen Netzwerken die Empörung hochtreibt. Das ist Teil des Geschäftsmodells der Plattformen, mit dem sie Milliarden verdienen. Für die Persönlichkeitsrechte der Nutzenden wollen sie aber keine Verantwortung übernehmen. Da hoffe ich jetzt auf eine höchstrichterliche Entscheidung. Das ist für unsere Demokratie wichtig.”
Die Verantwortung sozialer Netzwerke für die Verbreitung schädlicher Inhalte wird aktuell vermehrt diskutiert. Mit dem Digital Services Act (DSA) hat die EU klare Regeln für Plattformen geschaffen, um illegale Inhalte und Desinformation effektiver zu bekämpfen. Auch Meta steht wiederholt in der Kritik: Das Unternehmen hat in den USA jüngst die Reichweite von Faktenchecks eingeschränkt und angekündigt, seine Moderationsmaßnahmen zurückzufahren. Solche Änderungen können für Nutzende eine verstärkte Konfrontation mit Desinformationen und gewaltvollen Inhalten bedeuten.
Dazu Josephine Ballon, HateAid:
„Niemand steht über dem Gesetz – nicht einmal Meta. Menschenwürde ist nicht verhandelbar. Mit diesem Verfahren schaffen wir höchstrichterliche Rechtsprechung zum Umgang mit digitaler Gewalt und Desinformation. Es begann vor vier Jahren, die Rechtsfrage ist jedoch aktueller denn je. Plattformen tragen Verantwortung für ihre Nutzenden und für ein demokratisches Miteinander im digitalen Raum. Wenn sie dieser Verantwortung nicht freiwillig nachkommen, müssen wir die Rechtsansprüche der Betroffenen von digitaler Gewalt gerichtlich klären lassen.”
Der Ausgang des Grundsatzprozesses könnte den Schutz aller Nutzenden nachhaltig verändern. Er beleuchtet unter anderem die Frage der Haftbarkeit der Plattformen, wenn Nutzendenrechte missachtet werden. Ein Erfolg für Renate Künast könnte es für viele Betroffene in Zukunft leichter machen, rechtlich gegen Plattformen vorzugehen. Das betrifft auch die Ressourcen, die Plattformen für die Sicherheit ihrer Nutzenden aufbringen: Würden sich Betroffene vermehrt auch gerichtlich gegen Plattformen wehren, weil sie gute Aussichten auf Erfolg ihrer Klage haben, stünden Plattformen unter Druck, finanzielle Ressourcen für die Moderation und Überprüfung der Inhalte bereitzustellen. Soziale Netzwerke müssten dann eigenverantwortlich mit gut geschulten und ausgestatteten Content-Moderations-Teams sowie funktionalen Filtersystemen und Algorithmen daran arbeiten, User*innen eine sichere Infrastruktur bereitzustellen.
Dazu Rechtsanwalt Chan-jo Jun:
„Ich bin zuversichtlich, dass wir künftig ein wirksames Mittel gegen Verleumdung haben, nämlich dann, wenn eine Meldung ausreicht, um die Entfernung auf der gesamten Plattform zu erreichen.”
Sollte der BGH die Entscheidung des OLG Frankfurt bestätigen, könnte ein neuer Standard für die Verantwortlichkeit von Plattformen gesetzt werden. Dabei spielt neben der Datenschutz-Grundverordnung (DSGVO) auch der Digital Services Act eine zentrale Rolle. Schon 2019 hatte der Europäische Gerichtshof (EuGH) entschieden, dass Plattformen unter bestimmten Umständen verpflichtet sein können, wiederholt auftretende rechtswidrige Inhalte zu entfernen.
HateAid gGmbH
Die gemeinnützige Organisation HateAid wurde 2018 gegründet und hat ihren Hauptsitz in Berlin. Sie setzt sich für Menschenrechte im digitalen Raum ein und engagiert sich auf gesellschaftlicher wie politischer Ebene gegen digitale Gewalt und ihre Folgen. HateAid unterstützt Betroffene von digitaler Gewalt konkret durch Beratung und Prozesskostenfinanzierung. Geschäftsführerinnen sind Anna-Lena von Hodenberg und Josephine Ballon.
HateAid ist Trägerin der Theodor-Heuss-Medaille 2023.
Pressekontakt: presse@hateaid.org, Tel. +49 (0)30 25208837