Das Oberlandesgericht (OLG) Frankfurt setzt mit seinem aktuellen Urteil gegen Meta (Facebook) ein bemerkenswertes Zeichen. Das Urteil könnte weitreichende Folgen für den Umgang von Social-Media-Plattformen mit rechtswidrigen Inhalten haben.

Der Fall Künast

Der Fall dreht sich um die Bundestagsabgeordnete Renate Künast und ein irreführendes Meme, das ihr fälschlicherweise zugeschrieben wurde. Künast forderte mit Unterstützung der Organisation HateAid die Löschung des Memes und aller sinnverwandten Inhalte auf der Plattform.

Das Landgericht Frankfurt stellte fest, dass Meta für die Verbreitung des falschen Zitats verantwortlich ist und verpflichtete das Unternehmen zur Löschung identischer oder sinngemäßer Inhalte sowie zur Zahlung einer Geldentschädigung. Das OLG bestätigte den Unterlassungsanspruch, wies aber den Anspruch auf Geldentschädigung zurück.

Eine neue Ära der Haftung – nicht nur für Facebook

Das Urteil hat weitreichende Folgen für soziale Netzwerke. Es erweitert die Verantwortlichkeit der Plattformbetreiber über die Löschung konkret benannter Postings hinaus auf sinngleiche Inhalte. Dies bedeutet, dass Plattformen wie Facebook nicht nur auf direkte Hinweise reagieren, sondern proaktiv nach ähnlichen rechtswidrigen Inhalten suchen müssen. Darüber hinaus müssen sie nach Ansicht des OLG auch menschliche Prüfer einsetzen, um die durch technische Lösungen nicht erkennbaren Inhalte zu überprüfen.

Diese Entscheidung stellt eine Abwägung zwischen der Vermeidung einer generellen Überwachungspflicht und der Notwendigkeit des Schutzes von Persönlichkeitsrechten dar. Sie spiegelt die wachsende Erwartung an soziale Netzwerke wider, aktiv zur Eindämmung von Falschinformationen und rechtswidrigen Inhalten beizutragen.

Relevanz für die digitale Gesellschaft

Das Urteil könnte wegweisend für die Rolle von Social-Media-Plattformen bei der Moderation von Inhalten sein. Sie adressiert ein zentrales Dilemma: Einerseits sollen Plattformen nicht zu Zensoren werden, andererseits müssen sie wirksame Maßnahmen gegen die Verbreitung rechtswidriger Inhalte ergreifen. Das Urteil unterstreicht, dass Plattformbetreiber nicht passiv bleiben dürfen, wenn sie Kenntnis von rechtswidrigen Inhalten erlangt haben.

Das Urteil des OLG Frankfurt sendet eine klare Botschaft: Soziale Netzwerke dürfen bei der Verbreitung von Falschinformationen nicht länger nur zuschauen. Sie müssen aktiv Verantwortung übernehmen und sowohl technische als auch personelle Ressourcen einsetzen, um der Verbreitung entgegenzuwirken. Es bleibt abzuwarten, wie sich dieses Urteil auf die Praxis der Inhaltsmoderation auf sozialen Plattformen auswirken wird.

Fragen und Antworten

Frage 1: Was bedeutet das Urteil des OLG Frankfurt für Soziale Netzwerke?
Antwort 1: Das Urteil besagt, dass soziale Netzwerke proaktiv nach rechtswidrigen Inhalten suchen und diese löschen müssen, sobald sie von einem rechtswidrigen Beitrag Kenntnis erlangen.

Frage 2: Wie müssen Plattformbetreiber nach dem Urteil vorgehen?
Antwort 2: Sie müssen nicht nur auf direkte Hinweise reagieren, sondern auch technische und personelle Ressourcen einsetzen, um ähnliche rechtswidrige Inhalte aufzuspüren und zu entfernen.

Frage 3: Was war der Ausgangspunkt des Rechtsstreits?
Antwort 3: Renate Künast klagte gegen Meta (Facebook) wegen der Verbreitung eines Memes mit einem ihr fälschlicherweise zugeschriebenen Zitat und verlangte die Löschung des Memes sowie die Löschung aller ähnlichen Inhalte.

Frage 4: Welche Rolle spielt der Einsatz von KI und menschlicher Überprüfung?
Antwort 4: Das Urteil erkennt an, dass Plattformen technische Lösungen wie KI einsetzen können, dass aber in bestimmten Fällen auch menschliche Prüfer notwendig sind, um ähnliche Inhalte korrekt zu identifizieren und zu bewerten.

Frage 5: Welche langfristigen Auswirkungen könnte das Urteil haben?
Antwort 5: Es könnte die Art und Weise, wie soziale Netzwerke Inhalte moderieren und ihre Rolle bei der Bekämpfung von Falschinformationen und Rechtsverletzungen verstehen, grundlegend verändern.

Fazit

Das Urteil des OLG Frankfurt markiert einen Wendepunkt in der Moderation digitaler Inhalte. Es verlangt von sozialen Netzwerken nicht nur eine Reaktion auf gemeldete Inhalte, sondern auch eine proaktive Suche und Löschung gleichlautender rechtswidriger Beiträge.

Das Urteil hat weitreichende Folgen: Es könnte die Art und Weise, wie soziale Netzwerke Inhalte moderieren, grundlegend verändern und einen Präzedenzfall für zukünftige Rechtsstreitigkeiten schaffen. Die Herausforderung besteht nun darin, effiziente und faire Systeme zur Erkennung von Inhalten zu entwickeln, die illegale Inhalte identifizieren und entfernen, ohne die Meinungsfreiheit zu untergraben.

Quelle: Bundesrechtsanwaltskammer

Um auf dem Laufenden zu bleiben, abonnieren Sie den Mimikama-Newsletter und melden Sie sich für unsere Online-Vorträge und Workshops an.

Lesen Sie auch:

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)