Verbot von Postings, Comics sowie Filmen, die auf ein selbstverletzendes Verhalten hinweisen, auf Instagram.

Instagram verbannt sämtliche Inhalte, die Selbstverletzungen und Suizid zeigen. Dazu gehören auch Comics, Memes und Filmausschnitte. Solche Inhalte werden entweder komplett entfernt oder in milderen Fällen verschwommen dargestellt beziehungsweise mit einer Warnung versehen. Durch diese Maßnahme will Instagram einen schädlichen Einfluss auf die psychische Verfassung der User der Social-Media-Plattform verhindern.

Verweis auf Hilfsorganisationen

Nothing is more important to me than the safety of the people who use Instagram, particularly the most vulnerable. Suicide and self-harm are difficult and complex topics that people understandably care deeply about.

[…]

We will no longer allow fictional depictions of self-harm or suicide on Instagram, such as drawings or memes or content from films or comics that use graphic imagery.

„Wir erlauben keine fiktionalen Darstellungen von Selbstverletzung und Suizid auf Instagram. Auch Inhalte, die nicht direkt selbstverletzende Handlungen zeigen, aber auf solche anspielen, werden wir entfernen. Wir wollen uns verstärkt auf User konzentrieren, die nach solchen Inhalten suchen, und sie an Organisationen verweisen, die ihnen helfen können“, meint CEO Adam Mosseri in einem Blog-Posting (hier).

Laut Mosseri hat Instagram in den vergangenen drei Monaten 834.000 Bilder, Videos oder Textinhalte, die mit Suizid oder selbstverletzendem Verhalten zu tun haben, gelöscht, verschwommen gemacht oder mit Warnungen versehen. Von diesen Inhalten habe das Unternehmen selbst 77 Prozent gefunden. Mosseris Ziel ist es, diese Inhalte komplett von der Plattform zu verbannen.

Instagram: Druck durch britische Regierung

Bereits 2016 hat Instagram eine Funktion eingeführt, mit der User Bericht erstatten können, wenn das Verhalten von Freunden auf eine mögliche Suizidgefahr hinweist. Insta kontaktiert dann den entsprechenden User und bietet ihm an, mit Freunden oder einer Hilfsorganisation zu sprechen, oder gibt selbst Ratschläge.

Im Jahr 2017 beging die britische Schülerin Molly Russel im Alter von 14 Jahren Suizid, nachdem sie mit Selbstverletzung verbundene Inhalte auf Instagram sah. Die britische Regierung fordert deshalb schon länger soziale Netzwerke zu mehr Verantwortung bei Inhalten auf, die mit Suizid in Verbindung stehen.

Artikelbild: Shutterstock / Von Roman Bodnarchuk

Das könnte ebenso interessieren:

Instagram verbannt Schönheits-OP-Filter


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)