In einer Zeit, in der das Vertrauen in Online-Inhalte wackelt, hat eine NGO namens Ekō eine alarmierende Schwachstelle im Werbesystem des Giganten Meta aufgedeckt. Der Fall wirft Fragen über die Sicherheit und Integrität von Werbung in sozialen Medien auf und zeigt, dass selbst ein Gigant wie Meta anfällig für Übersehen ist.
Anzeigen, die die Hinrichtung eines Politikers verlangen oder zum Niederbrennen von Synagogen auffordern, widersprechen zutiefst den menschlichen Werten und verstoßen ebenso gegen Metas klare Werberichtlinien. Trotzdem haben einige solcher Anzeigen kürzlich die Zustimmung von Meta erhalten. Laut der NGO Ekō hat die Inhaltsmoderation von Meta hierbei versagt. Von den 13 Anzeigen, die Ekō platzierte, wurden acht genehmigt – darunter auch solche, die die spanischen Wahlen als ‚manipuliert‘ bezeichneten.
Meta’s Werbe-Gate: Ekōs entlarvende Experiment
Die Nichtregierungsorganisation Ekō entschied sich für einen mutigen Schritt: Sie kaufte Ads auf Meta, die eindeutig gegen die Anti-Hate-Speech-Richtlinien des Unternehmens verstoßen. Überraschend genug wurden viele dieser Ads genehmigt.
Im Kontext der neuesten Bestimmungen des Digital Services Act, die Meta ab dem 25. August 2023 befolgen soll, fordert Ekō verstärkte Sicherheitsmaßnahmen bei der Schaltung von Werbeanzeigen. Ekō betont, dass es derzeit zu unkompliziert ist, über Meta-Anzeigen Hassreden zu verbreiten.
Während dieser Enthüllung zeigte sich nicht nur eine besorgniserregende Lücke in Metas Werbemoderation, sondern auch die dringende Notwendigkeit, die Regulierung und Überwachung von Online-Werbung zu überdenken.
Ekō plante, über Meta 13 Anzeigen in Europa zu schalten, die alle KI-generierte Grafiken und Texte enthielten, die eindeutig gegen die Richtlinien von Meta verstießen. Acht dieser Anzeigen wurden zugelassen. Die Anzeigen, die Meta blockierte, wurden aufgrund ihres politischen Charakters gekennzeichnet und daher nicht ausgestrahlt – nicht speziell wegen ihrer stark menschenfeindlichen Botschaften. Ekō zog die Anzeigen zurück, bevor sie ausgestrahlt werden konnten. Meta äußerte sich in einer Stellungnahme zu den Erkenntnissen der Organisation:
This report was based on a very small sample of ads and is not representative of the number of ads we review daily across the world. Our ads review process has several layers of analysis and detection, both before and after an ad goes live. We’re taking extensive steps in response to the DSA and continue to invest significant resources to protect elections and guard against hate speech as well as against violence and incitement.
Bedeutet:
Der Bericht basiert auf einer sehr kleinen Auswahl von Anzeigen und ist nicht repräsentativ für die Anzahl der Anzeigen, die wir täglich weltweit überprüfen. Unser Anzeigenüberprüfungsprozess umfasst mehrere Ebenen der Analyse und Erkennung, sowohl vor als auch nach der Veröffentlichung einer Anzeige. Wir ergreifen umfassende Maßnahmen im Rahmen der DSA und investieren weiterhin beträchtliche Ressourcen in den Schutz von Wahlen und in die Bekämpfung von Hassreden, Gewalt und Aufstachelung zu Gewalt.
Ist Meta bereit für die DSA?
Während Meta bereits Maßnahmen ergriffen hat, um den Anforderungen des DSA gerecht zu werden, ist es klar, dass mehr getan werden muss. Das Unternehmen muss eine robustere Strategie zur Inhaltsmoderation implementieren, um sicherzustellen, dass schädliche Inhalte nicht ausgespielt werden. Außerdem sind mehr Transparenz und Verantwortlichkeit erforderlich, um das Vertrauen der Öffentlichkeit zurückzugewinnen.
Meta muss daher in Zukunft mehr Ressourcen im Kampf gegen Hasskommentare und riskante Werbung einsetzen, wie es in der Unternehmensmitteilung heißt. Verstößt ein Unternehmen oder Konzern gegen den Digital Services Act (DSA), drohen Strafen von bis zu sechs Prozent des weltweiten Jahresumsatzes.
Die Kommission wird über die gleichen Überwachungsbefugnisse verfügen wie nach den derzeitigen Kartellvorschriften, einschließlich Untersuchungsbefugnissen und der Möglichkeit, Geldbußen in Höhe von bis zu 6 % des weltweiten Umsatzes zu verhängen.
Warum es wichtig ist
Es ist keine Übertreibung zu sagen, dass der Fall Ekō ein Weckruf für die gesamte Werbe- und Social-Media-Branche ist. In einer Zeit, in der Fake News und Hassreden das Online-Umfeld vergiften, haben wir nicht den Luxus, die Bedeutung von sicherer und verantwortungsvoller Werbung zu unterschätzen.
Fazit: Der Fall Ekō vs. Meta zeigt, dass selbst die größten und fortschrittlichsten Unternehmen der Welt nicht immun gegen Fehler sind. Es unterstreicht auch die Notwendigkeit für strengere Regulierungen und Selbstkontrolle in der Online-Werbebranche. Es bleibt zu hoffen, dass solche Enthüllungen als Katalysator für positive Veränderungen und nicht nur als weiterer Skandal in den Annalen der Internetgeschichte dienen werden.
Am Ende des Tages sind wir alle Nutzer, und es liegt in unserer Macht, Druck auf diese Plattformen auszuüben, um sicherzustellen, dass sie sicherer und verantwortungsbewusster agieren. Lassen Sie uns diesen Fall als Erinnerung daran nutzen, wie wichtig es ist, informiert zu bleiben und unseren Teil dazu beizutragen.
Bleiben Sie informiert und engagiert. Melden Sie sich jetzt für den Mimikama-Newsletter an und nutzen Sie das Mimikama-Medienbildungsangebot. Unsere Zukunft im digitalen Raum hängt von unserer kollektiven Wachsamkeit und unserem Handeln ab.
Quellen:
Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:
- Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
- Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
- Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.
Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)