Nie mehr wichtige Faktenchecks verpassen!
Melden Sie sich für unseren WhatsApp-Channel, die Smartphone-App (für iOS und Android) oder unseren Newsletter an und erhalten Sie alle Faktenchecks und Updates sofort. Einfach anmelden, immer einen Schritt voraus!


2021 ist das “Superwahljahr”: Sechs Bundesländer wählen ihre Landesparlamente und im September findet die Bundestagswahl statt. Facebook selbst ist überzeugt davon, dass sie einen positiven Beitrag für die Sicherheit und die Transparenz der Wahlen leisten können.

Zu den Wahlen in Deutschland 2021 hat Facebook folgendes geschrieben: Wir sind davon überzeugt, dass Facebook einen positiven Beitrag für die Sicherheit und die Transparenz der Wahlen leisten kann. Jede Wahl ist anders – deshalb haben wir Teams, die sich speziell auf die Wahlen in Deutschland konzentrieren. Im Folgenden möchten wir vorstellen, wie wir uns vorbereiten:

1. Entfernen unzulässiger Inhalte 

  • Die Sicherheit der Menschen auf unseren Plattformen hat für uns höchste Priorität.
  • Wir haben weltweit gültige Gemeinschaftsstandards, die öffentlich einsehbar sind und festlegen, was auf Facebook und Instagram erlaubt ist und was nicht. Wenn Inhalte geteilt werden, die gegen unsere Regeln verstoßen, entfernen wir diese.
  • Dazu gehören Falschinformationen, die zu unmittelbar drohendem körperlichen Schaden führen könnten oder Falschinformationen über den Wahlprozess, die Menschen von der Stimmabgabe abhalten könnten.
  • Seit 2016 haben wir das Team, das sich bei Facebook mit Sicherheitsfragen beschäftigt, auf mehr als 35.000 Mitarbeiter*innen weltweit verdreifacht. Für die Überprüfung von Inhalten sind etwa 15.000 Personen zuständig.
  • Wir setzen zudem auf künstliche Intelligenz, um unzulässige Inhalte zu erkennen und schneller zu entfernen.
  • Von Januar bis März 2021 haben wir weltweit 25,2 Millionen Inhalte von Facebook entfernt, weil sie gegen unsere Richtlinien zu Hassrede verstoßen haben. Knapp 97 Prozent der Inhalte haben wir entfernt, noch bevor Nutzer*innen sie melden konnten – 2017 lag diese Quote noch bei 24 Prozent.

2. Bekämpfen von Falschinformationen

  • Wir reduzieren die Verbreitung von Falschnachrichten, wenn sie von unseren externen, unabhängigen Faktenprüfer*innen als falsch eingestuft wurden. Weltweit arbeiten wir mit über 80 unabhängigen Fact-Checking-Organisationen zusammen, die Inhalte in mehr als 60 Sprachen überprüfen. In Deutschland sind unsere Partner AFPCorrectiv und dpa.
  • Sobald unsere Faktenprüfer*innen einen Inhalt als falsch einstufen, reduzieren wir nicht nur die Verbreitung des Inhaltes, sondern fügen Links zu weiterführenden Artikeln oder Warnhinweise hinzu:
    • Wir senden Benachrichtigungen an Nutzer*innen, die den Inhalt geteilt haben.
    • Wenn Menschen versuchen, einen falschen Inhalt zu teilen, bekommen sie einen Warnhinweis angezeigt. Auch Inhalte, die bereits geteilt wurden, werden mit einem Warnhinweis versehen.
    • Unsere Erfahrung zeigt, dass Menschen, die diesen Warnhinweis sehen, in 95 Prozent der Fälle nicht auf den ursprünglichen Inhalt klicken.
  • Wir halten es nicht für unsere Aufgabe zu entscheiden, ob Aussagen von Politiker*innen wahr oder falsch sind oder zu verhindern, dass diese die Öffentlichkeit erreichen. Deshalb überprüfen unsere unabhängigen Faktenprüfer*innen keine Inhalte, die von Politiker*innen stammen.
  • Wenn Politiker*innen jedoch Inhalte teilen, die zuvor als falsch oder teilweise falsch eingestuft wurden, erhalten sie eine geringere Verbreitung im News Feed von Facebook.

3. Eindämmung von viralen Falschinformationen

  • Wir arbeiten hart daran zu verhindern, dass Falschinformationen viral gehen und haben auf WhatsApp und Messenger das Weiterleiten von Nachrichten eingeschränkt.
  • Die Anzahl der Personen, an die eine Nachricht gleichzeitig weitergeleitet werden kann, ist auf fünf limitiert.
  • Zudem werden Inhalte, die häufig geteilt wurden, mit den Hinweisen „Weitergeleitet“ bzw. „Häufig weitergeleitet“ versehen. Nachrichten mit dem Hinweis „Häufig weitergeleitet“ können nur noch an einen Chat geschickt werden.

4. Transparenz bei politischen Werbeanzeigen

  • Wir sind davon überzeugt, dass politische Diskussionen transparent geführt werden müssen, damit sich Wähler*innen ein vollständiges Bild machen können. Dies gilt auch für Werbung zu politisch oder gesellschaftlich relevanten Themen auf Facebook oder Instagram.
  • Jede Person, die politische Werbung in Deutschland schalten möchte, muss einen Autorisierungsprozess durchlaufen, um ihre Identität und ihren Aufenthalt in Deutschland zu verifizieren.
  • Werbetreibende, die Wahlwerbung bzw. Werbung zu politisch oder gesellschaftlich relevanten Themen in Deutschland schalten möchten, müssen ihre Werbeanzeigen mit dem “Finanziert durch”-Disclaimer kennzeichnen.
  • Alle Werbeanzeigen zu politisch oder gesellschaftlich relevanten Themen finden sich in unserer Werbebibliothek. Hier kann öffentlich eingesehen werden, welche Anzeigen derzeit laufen, welche Personengruppen sie gesehen haben und wie viel dafür ausgegeben wurde. Dieses Archiv ist mit umfassenden Suchfunktionen ausgestattet und speichert politische Werbeanzeigen für sieben Jahre.
  • Darüber hinaus können alle Nutzer*innen auf eine Anzeige bei Facebook klicken und mit der Funktion “Warum sehe ich diese Werbeanzeige?” mehr Informationen über die Zielgruppen der jeweiligen Werbung erhalten sowie Anzeigen von bestimmten Werbetreibenden blockieren.
  • In den Werbepräferenzen auf Facebook und Instagram lässt sich zudem einstellen, wenn jemand weniger politische Werbung im News Feed angezeigt bekommen möchte.

5. Verhindern von Wahlbeeinflussung

  • Der Kampf gegen Wahlbeeinflussung hat für uns hohe Priorität. In den letzten dreieinhalb Jahren haben wir regelmäßig Informationen zu unserem Vorgehen gegen koordinierte Desinformationskampagnen (Coordinated Inauthentic Behavior, CIB) veröffentlicht. Aktuelle Fortschritte zeigen wir in unserem monatlichen Bericht.
  • Wir haben auf der ganzen Welt spezialisierte Teams aufgebaut, um koordinierte Desinformationskampagnen zu stoppen. Diese zeichnen sich dadurch aus, dass Akteure versuchen,  den politischen Diskurs zu manipulieren und Einfluss auf die öffentliche Debatte zu nehmen, indem sie Seiten, Gruppen und einzelne Konten für gezielte Desinformationskampagnen verwenden.
  • Wir gehen gegen diese Netzwerke aufgrund ihres betrügerischen Verhaltens vor, nicht zwangsläufig wegen der Inhalte, die sie teilen. Diese können zulässig sein oder auch nicht.
  • Seit 2017 haben wir weltweit mehr als 100 dieser Netzwerke stilllegen können, insbesondere im Vorfeld von Wahlen.
  • Jeden Tag blockieren wir Millionen von gefälschten Konten noch bevor sie uns gemeldet werden.

6. Schutz und Unterstützung für Kandidat*innen

  • Wir bieten Politiker*innen eine Reihe von hilfreichen Tools, um einen sicheren und verantwortungsvollen Austausch mit Wähler*innen zu ermöglichen. Dank Maßnahmen wie der zweistufigen Authentifizierung, dem Facebook Sicherheits- oder Privatsphäre-Check sind die Konten von Kandidat*innen besser vor unerlaubten Zugriffen und Identitätsbetrug geschützt. Zudem unterstützen wir Sicherheits- und Authentifizierungsmethoden von Drittanbietern wie Google Authenticator oder LastPass.
  • Um unangebrachte Kommentare zu reduzieren bzw. zu verhindern, stellen wir verschiedene Tools für die Content-Moderation zur Verfügung. Mit ihnen können z. B. beleidigende Kommentare herausgefiltert oder Kommentare mit bestimmten Wörtern (Keywords) blockiert werden. Seitenadministrator*innen können außerdem Personen entfernen oder sperren.
  • Um Kandidat*innen und ihre Wahlkampfteams über die verfügbaren Tools sowie relevante Themen rund um die politische Kommunikation zu informieren, bieten wir regelmäßige Produktschulungen und Webinare an.
  • Einen besonderen Fokus legen wir auf die Unterstützung von Kandidatinnen, die im Netz oft ungleich schärferen Tönen ausgesetzt sind als ihre männlichen Kollegen. In regelmäßigen Online-Veranstaltungen informieren wir zusammen mit unseren Partnern aus den Bereichen Gegenrede und Resilienz über Maßnahmen, Funktionen und Taktiken für eine effektive Moderation.  Dazu gehören Tipps für die Bewahrung konstruktiver Debatten sowie den Umgang mit belastenden Kommentaren. Des Weiteren bieten wir einen zusätzlichen Meldeweg sowie bei Bedarf eine individuelle Beratung an.

Weiterführende Facebook Links:

Quelle: Facebook / Download Factsheet 
Artikelbild: Shutterstock / Von zkolra


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)