In einer Zeit, in der das Vertrauen in Online-Inhalte wackelt, hat eine NGO namens Ekō eine alarmierende Schwachstelle im Werbesystem des Giganten Meta aufgedeckt. Der Fall wirft Fragen über die Sicherheit und Integrität von Werbung in sozialen Medien auf und zeigt, dass selbst ein Gigant wie Meta anfällig für Übersehen ist.

Anzeigen, die die Hinrichtung eines Politikers verlangen oder zum Niederbrennen von Synagogen auffordern, widersprechen zutiefst den menschlichen Werten und verstoßen ebenso gegen Metas klare Werberichtlinien. Trotzdem haben einige solcher Anzeigen kürzlich die Zustimmung von Meta erhalten. Laut der NGO Ekō hat die Inhaltsmoderation von Meta hierbei versagt. Von den 13 Anzeigen, die Ekō platzierte, wurden acht genehmigt – darunter auch solche, die die spanischen Wahlen als ‚manipuliert‘ bezeichneten.

Meta’s Werbe-Gate: Ekōs entlarvende Experiment

Die Nichtregierungsorganisation Ekō entschied sich für einen mutigen Schritt: Sie kaufte Ads auf Meta, die eindeutig gegen die Anti-Hate-Speech-Richtlinien des Unternehmens verstoßen. Überraschend genug wurden viele dieser Ads genehmigt.

Im Kontext der neuesten Bestimmungen des Digital Services Act, die Meta ab dem 25. August 2023 befolgen soll, fordert Ekō verstärkte Sicherheitsmaßnahmen bei der Schaltung von Werbeanzeigen. Ekō betont, dass es derzeit zu unkompliziert ist, über Meta-Anzeigen Hassreden zu verbreiten.

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

Während dieser Enthüllung zeigte sich nicht nur eine besorgniserregende Lücke in Metas Werbemoderation, sondern auch die dringende Notwendigkeit, die Regulierung und Überwachung von Online-Werbung zu überdenken.

MIMIKAMA
Meta akzeptiert Werbung voller Hass und Gewaltaufrufe in Europa

Ekō plante, über Meta 13 Anzeigen in Europa zu schalten, die alle KI-generierte Grafiken und Texte enthielten, die eindeutig gegen die Richtlinien von Meta verstießen. Acht dieser Anzeigen wurden zugelassen. Die Anzeigen, die Meta blockierte, wurden aufgrund ihres politischen Charakters gekennzeichnet und daher nicht ausgestrahlt – nicht speziell wegen ihrer stark menschenfeindlichen Botschaften. Ekō zog die Anzeigen zurück, bevor sie ausgestrahlt werden konnten. Meta äußerte sich in einer Stellungnahme zu den Erkenntnissen der Organisation:

This report was based on a very small sample of ads and is not representative of the number of ads we review daily across the world. Our ads review process has several layers of analysis and detection, both before and after an ad goes live. We’re taking extensive steps in response to the DSA and continue to invest significant resources to protect elections and guard against hate speech as well as against violence and incitement.

Bedeutet:

Der Bericht basiert auf einer sehr kleinen Auswahl von Anzeigen und ist nicht repräsentativ für die Anzahl der Anzeigen, die wir täglich weltweit überprüfen. Unser Anzeigenüberprüfungsprozess umfasst mehrere Ebenen der Analyse und Erkennung, sowohl vor als auch nach der Veröffentlichung einer Anzeige. Wir ergreifen umfassende Maßnahmen im Rahmen der DSA und investieren weiterhin beträchtliche Ressourcen in den Schutz von Wahlen und in die Bekämpfung von Hassreden, Gewalt und Aufstachelung zu Gewalt.

Ist Meta bereit für die DSA?

Während Meta bereits Maßnahmen ergriffen hat, um den Anforderungen des DSA gerecht zu werden, ist es klar, dass mehr getan werden muss. Das Unternehmen muss eine robustere Strategie zur Inhaltsmoderation implementieren, um sicherzustellen, dass schädliche Inhalte nicht ausgespielt werden. Außerdem sind mehr Transparenz und Verantwortlichkeit erforderlich, um das Vertrauen der Öffentlichkeit zurückzugewinnen.

Meta muss daher in Zukunft mehr Ressourcen im Kampf gegen Hasskommentare und riskante Werbung einsetzen, wie es in der Unternehmensmitteilung heißt. Verstößt ein Unternehmen oder Konzern gegen den Digital Services Act (DSA), drohen Strafen von bis zu sechs Prozent des weltweiten Jahresumsatzes.

MIMIKAMA
Screenshot: Questions and Answers: Digital Services Act

Die Kommission wird über die gleichen Überwachungsbefugnisse verfügen wie nach den derzeitigen Kartellvorschriften, einschließlich Untersuchungsbefugnissen und der Möglichkeit, Geldbußen in Höhe von bis zu 6 % des weltweiten Umsatzes zu verhängen.

Warum es wichtig ist

Es ist keine Übertreibung zu sagen, dass der Fall Ekō ein Weckruf für die gesamte Werbe- und Social-Media-Branche ist. In einer Zeit, in der Fake News und Hassreden das Online-Umfeld vergiften, haben wir nicht den Luxus, die Bedeutung von sicherer und verantwortungsvoller Werbung zu unterschätzen.


Als das DSA in Kraft trat, ließ Meta eine Reihe von gewalttätigen, rassistischen, antisemitischen und „Stop the Steal“-Anzeigen zu, die sich gegen Europäer richteten. IN EINER DER ANZEIGEN WIRD DIE HINRICHTUNG EINER PROMINENTEN MEP WEGEN IHRER HALTUNG ZUR EINWANDERUNG GEFORDERT. AUF DIESE WEISE KÖNNTEN DIE SCHÄDLICHEN INHALTE VON META BEKÄMPFT WERDEN.

Die alarmierenden Ergebnisse kommen einen Tag vor dem Inkrafttreten des Digital Services Act (DSA) der EU. Wenn er richtig umgesetzt wird, wird er das Kerngeschäft von Big Tech ins Visier nehmen, das die Verbreitung von Hassreden und Falschinformationen beschleunigt. In einem Experiment, das zwischen dem 4. und 8. August durchgeführt wurde, ließ Facebook eine Reihe von acht hochgradig hetzerischen Werbeanzeigen zu, die zu einem gewalttätigen Aufstand im Stil von „Stoppt den Diebstahl“ aufriefen, um die Ergebnisse der jüngsten spanischen Wahlen umzukehren, sowie rassistische und antisemitische Beleidigungen und Aufrufe zu Gewalt gegen Einwanderer und die LGBTQ+-Gemeinschaft enthielten.

Jeder Anzeigentext wurde von manipulierten Bildern begleitet, die mit KI-gestützten Bildbearbeitungswerkzeugen erstellt wurden, was zeigt, wie schnell und einfach diese neue Technologie eingesetzt werden kann, um schädliche Inhalte zu verstärken. Neue Untersuchungen der Corporate Responsibility Group Ekō in Zusammenarbeit mit dem Netzwerk People Vs. Big Tech zeigen, dass Meta immer noch nicht in der Lage ist, Anzeigen zu erkennen und zu blockieren, die Hassreden, Informationen über Wahlbetrug und Aufrufe zur Gewalt enthalten – einschließlich einer Morddrohung gegen ein amtierendes Mitglied des Europäischen Parlaments.

META-ANZEIGEN MONETARISIEREN INHALTE, DIE ZU HINRICHTUNGEN, VÖLKERMORD UND „STOPPT DEN DIEBSTAHL“ AUFRUFEN.

Mehrere Anzeigen spielten mit der Angst vor einer Überflutung Europas durch Einwanderer und stellten einen Zusammenhang zwischen Einwanderung und angeblichen Gewaltverbrechen her. Eine an ein deutsches Publikum gerichtete Anzeige rief dazu auf, Synagogen anzuzünden, um „weiße Deutsche zu schützen“. Zwei Anzeigen propagierten eine „Stoppt den Diebstahl“-Erzählung rund um die jüngsten Wahlen in Spanien und behaupteten, dass elektronische Wahlmaschinen manipuliert worden seien, und riefen zu einem gewalttätigen Aufstand auf, um politische Gegner zu ermorden und das Wahlergebnis umzukehren. In einer gezielten Anzeige in Rumänien wurde die „Säuberung“ aller LGBTQ+-Personen gefordert. In einer Anzeige wurde die Hinrichtung einer prominenten Europaabgeordneten wegen ihrer Haltung zur Einwanderung gefordert.

Jede Anzeige wurde von einem manipulierten Bild begleitet, das mit den KI-Bildverarbeitungswerkzeugen Stable Diffusion und Dall-e2 erstellt wurde. Beispielsweise konnten die Ekō-Forscher leicht Bilder erstellen, die eine maskierte Person zeigten, die Wahlzettel in eine Wahlurne warf, Drohnenaufnahmen von Einwanderern, die sich in Häfen und an Grenzübergängen drängten, und brennende Synagogen. Insgesamt wurden 8 von 13 Anzeigen innerhalb von 24 Stunden von Meta genehmigt; alle genehmigten Anzeigen verstießen gegen Metas eigene Richtlinien. Fünf Anzeigen wurden abgelehnt, weil sie sich auf Wahlen oder Politiker bezogen und somit politische Anzeigen waren.

Alle Anzeigen wurden von den Forschern vor der Veröffentlichung entfernt, so dass sie von den Facebook-Nutzern nie gesehen wurden.Die Anzeigen wurden auf Deutsch, Französisch, Englisch und Spanisch veröffentlicht. Die Forscher entfernten die Anzeigen vor der Veröffentlichung, so dass sie von den Facebook-Nutzern nie gesehen wurden. Fünf weitere Anzeigen wurden eingereicht und abgelehnt, weil sie als politische Anzeigen eingestuft werden könnten, aber sie wurden nicht wegen Hassreden oder Aufrufen zur Gewalt abgelehnt, was wiederum die Unfähigkeit der automatisierten Systeme von Meta zeigt, schädliche Inhalte zu erkennen.

Die Ergebnisse dieses Experiments sind alarmierend und zeigen, dass trotz der Bemühungen großer Technologieunternehmen und Gesetzgeber, die Verbreitung von Hass und Fehlinformationen einzudämmen, noch erhebliche Lücken bestehen. Es ist unerlässlich, dass diese Unternehmen stärker reguliert werden und ihre Verantwortung ernst nehmen, um die Verbreitung von Hass und Fehlinformationen zu verhindern.


Fazit: Der Fall Ekō vs. Meta zeigt, dass selbst die größten und fortschrittlichsten Unternehmen der Welt nicht immun gegen Fehler sind. Es unterstreicht auch die Notwendigkeit für strengere Regulierungen und Selbstkontrolle in der Online-Werbebranche. Es bleibt zu hoffen, dass solche Enthüllungen als Katalysator für positive Veränderungen und nicht nur als weiterer Skandal in den Annalen der Internetgeschichte dienen werden.

Am Ende des Tages sind wir alle Nutzer, und es liegt in unserer Macht, Druck auf diese Plattformen auszuüben, um sicherzustellen, dass sie sicherer und verantwortungsbewusster agieren. Lassen Sie uns diesen Fall als Erinnerung daran nutzen, wie wichtig es ist, informiert zu bleiben und unseren Teil dazu beizutragen.

Bleiben Sie informiert und engagiert. Melden Sie sich jetzt für den Mimikama-Newsletter an und nutzen Sie das Mimikama-Medienbildungsangebot. Unsere Zukunft im digitalen Raum hängt von unserer kollektiven Wachsamkeit und unserem Handeln ab.

Quellen:


Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)