Wie Studien belegen, gelang es sozialen Netzwerken – darunter Facebook und TikTok – nicht, Werbeanzeigen mit offensichtlichen Falschinformationen zur US-Wahl zu blockieren und vor der Veröffentlichung zu schützen. Stattdessen wurde ein hoher Anteil der Fake News durchgewunken und erschien als Werbung auf der jeweiligen Plattform.

Studie schaltet absichtlich Werbung mit Falschinformationen

Wie die Website „Netzpolitik“ berichtet, untersuchten die Nichtregierungsorganisationen Global Witness und Cybersecurity for Democracy  in einer gemeinsamen Studie, wie konsequent einige Plattformen im Netz gewisse politische Werbeanzeigen auf die Richtigkeit überprüfen und gegebenenfalls blockieren. Dazu wurden jeweils zwanzig Werbeinserate, die absichtlich falsche Informationen zur US-Wahl am 08.11.2022 erhalten, auf die Plattformen geschaltet, um dann zu untersuchen, wie viele tatsächlich veröffentlicht werden.

Für die eingereichten Fake-Anzeigen verwendeten die WissenschaftlerInnen bereits bekannte Falschinformationen, die unter anderem falsche Wahltermine enthielten, sich gegen die Stimmabgabe per Post aussprachen oder Behauptungen anstellten, dass schon jetzt Wahlergebnisse feststünden oder manipuliert werden können. Sie wurden auf Englisch und auf Spanisch verfasst und in den Bundesstaaten Arizona, Colorado, Georgia, North Carolina und Pennsylvania veröffentlicht.

Erschreckende Ergebnisse vor allem bei TikTok

Nach eigenen Angaben akzeptieren die Plattformen Werbeanzeigen nicht automatisch. Stattdessen durchlaufen diese mehrere KI-Systeme, die darauf trainiert sind, Falschinformationen oder wiederkehrende Muster zu erkennen und zu blockieren. Auch Menschen seien an diesem Moderationsprozess beteiligt, um ein noch besseres Ergebnis zu gewährleisten.

Je nach Netzwerkrichtlinien würde dann eine Entscheidung über die Veröffentlichung getroffen werden. Bei politischen Themen gelten nach selbst gesetztem Anspruch allerdings bei allen getesteten Netzwerken besonders strikte Regeln.

Doch laut Studie widersprachen sämtliche der geschalteten Anzeigen den Vorgaben der Plattformen: Bei TikTok offenbart sie einen gravierenden Mangel beim Moderationsprozess, da erstaunlicherweise 18 von 20 Fake-Werbeanzeigen, also eine Quote von 90%, veröffentlicht wurden. Und das, trotz eines neuen Verbots politischer Werbung über offizielle Accounts von Regierungen, PolitikerInnen und Parteien. „TikTok schnitt unter allen Plattformen am schlechtesten ab“, so das Ergebnis der Studie.

Doch auch bei Facebook gibt es definitiv Nachholbedarf, denn auch hier wurden 25 % also fünf von 20 Anzeigen publiziert. Darunter auch mehr als unglaubwürdige Thesen, wie z.B. man müsse zweimal zur Wahl gehen oder geimpft sein, um teilnehmen zu können. Insgesamt bestätigen sich Befürchtungen, dass es bei der anstehenden Wahl zu Manipulationen kommen könnte.

YouTube überzeugte hingegen bei der Studie

Die Alphabet-Tochter YouTube schnitt bei der Studie überraschend positiv ab. Es wurden sämtliche Anzeigen blockiert und zusätzlich der Kanal, der die Anzeigen schalten wollte, geschlossen.

Die mitwirkende Laura Edelson kommentiert: „Das Abschneiden von YouTube in unserem Experiment zeigt, dass es nicht unmöglich ist, schädliche Desinformation zur Wahl zu erkennen“. Überraschend war der Erfolg seitens YouTube deshalb, da die Plattform bei einer ähnlichen Untersuchung in Brasilien vor einem Monat noch alle Anzeigen mit Falschinformationen durchgewunken hatte.

Offenbar nationale Unterschiede bei der Plattformmoderation

Diese verschiedenen Ergebnisse bei YouTube lassen darauf schließen, dass es nationale Unterschiede in Bezug auf die Prüfung von Werbeinhalten auf der eigenen Plattform gibt. So wiesen auch die Bemühungen von Facebook deutliche Unterschiede auf. Wurden die Werbeanzeigen in den Vereinigten Staaten noch größtenteils blockiert, veröffentlichte Facebook in Brasilien, Myanmar, Äthiopien und Kenia 100% der Fake-Anzeigen genauso wie Hatespeech.

Reaktionen und Kritik

Nach Veröffentlichung der Studienergebnisse dankte TikTok für das „Feedback“, das dazu beitrage, „unsere Prozesse und Richtlinien kontinuierlich zu verbessern“. Facebook stellte sich größtenteils gegen die Ergebnisse, mit der Begründung, dass die kleine Stichprobe der von den WissenschaftlerInnen geschalteten Anzeigen nicht repräsentativ genug sei. Die Überprüfung von Inhalten erfolge zudem in einem mehrstufigen Prozess und werde auch nach deren Veröffentlichung fortgesetzt.

Zuwider argumentieren die Untersuchenden bezüglich der Reaktionen: „Wie Facebook muss auch TikTok erkennen, dass der Schutz von Demokratie nicht optional ist: Er ist Teil der Geschäftskosten“. Des Weiteren fordern sie von allen 3 Plattformen hinreichende Informationen dazu, wie intern mit eingehenden Werbeanzeigen umgegangen wird bzw. wie umfassend diese tatsächlich geprüft werden. Wissenschaft und Öffentlichkeit seien auf Transparenz angewiesen, um die Plattformen auf Grundlage ihrer eigenen Standards zur Rechenschaft zu ziehen, so die WissenschaftlerInnen.

Quelle

Netzpolitik
Summary of findings: TikTok and Facebook fail to detect election disinformation in the U.S., while Youtube succeeds

Autor: Nick L.

Lesen Sie auch: Facebook-Phishing! Achtung vor Seiten, die euch markieren

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)