Täglich werden Millionen von Fotos und Videos auf Facebook geteilt, einige davon manipuliert.
Teile der hochgeladenen Inhalte werden manipuliert, häufig aus harmlosen Gründen, z.B. um ein Video schärfer oder Audio klarer zu machen. Aber es gibt Menschen, die Medienmanipulation betreiben, um irrezuführen.
Manipulationen können mit einfachen Technologien wie Photoshop oder hochentwickelten Tools durchgeführt werden, die künstliche Intelligenz oder „Deep Learning“ -Techniken verwenden, um Videos zu erstellen, die die Realität verzerren – normalerweise als „Deepfakes“ bezeichnet. Obwohl diese Videos im Internet noch selten sind, stellen sie mit zunehmender Nutzung eine große Herausforderung für unsere Industrie und Gesellschaft dar.
Wie geht Facebook mit Deepfakes um?
Facebooks Ansatz umfasst mehrere Komponenten, von der Untersuchung von KI-generierten Inhalten und betrügerischen Verhaltensweisen wie falschen Berichten über die Zusammenarbeit mit Wissenschaft, Regierung und Industrie bis hin zur Aufdeckung von Personen, die hinter diesen Bemühungen stehen.
[mk_ad]
Zusammenarbeit ist der Schlüssel. Weltweit führte Facebook Gespräche mit mehr als 50 globalen Experten mit technischem, politischem, medialem, juristischem, staatsbürgerlichem und akademischem Hintergrund, um über die politische Entwicklung zu informieren und die Wissenschaft der Erkennung manipulierter Medien zu verbessern.
Kriterien zur Entfernung irreführender Medien
Als Ergebnis dieser Partnerschaften und Diskussionen sollen Facebooks Richtlinien gegenüber irreführenden manipulierten Videos gestärkt werden, die als Deepfakes identifiziert wurden. In Zukunft werden irreführende manipulierte Medien entfernt, wenn sie folgende Kriterien erfüllen:
Es wurde – über die Anpassungen für Klarheit oder Qualität hinaus – auf eine Art und Weise bearbeitet oder synthetisiert, die für eine Durchschnittsperson nicht offensichtlich ist und wahrscheinlich jemanden dazu verleiten würde, zu denken, dass im Video Aussagen getätigt werden, die in Wirklichkeit nicht gesagt wurden.
Es ist das Produkt künstlicher Intelligenz oder maschinellen Lernens, das Inhalte in einem Video zusammenführt, ersetzt oder überlagert, so dass es authentisch erscheint.
Diese Richtlinie erstreckt sich nicht auf Inhalte, die Parodie oder Satire sind, oder auf Videos, die lediglich bearbeitet wurden, um die Reihenfolge der Wörter auszulassen oder zu ändern.
In Übereinstimmung mit Facebooks bestehenden Richtlinien werden Audiodateien, Fotos oder Videos, egal ob es sich dabei um ein Deepfake handelt oder nicht, von Facebook entfernt, wenn sie gegen bestehende andere Community-Standards verstoßen, einschließlich derer, die Nacktheit, grafische Gewalt, Unterdrückung von Wählern und Hassreden regeln.
Check durch Drittanbieter
Videos, welche die Standards für die Entfernung nicht erfüllen, können dennoch von Facebooks unabhängigen Drittanbietern überprüft werden. Zu diesen gehören weltweit über 50 Partner, die Fakten in über 40 Sprachen prüfen. Wenn ein Foto oder Video von einem Fakt-Checker als falsch oder teilweise falsch bewertet wird, wird seine Verbreitung in den News Feeds erheblich reduziert und auch von Facebook abgelehnt, wenn es als Anzeige geschaltet werden soll.
Nutzer, die es sehen und versuchen, es zu teilen oder es bereits geteilt haben, sollen Warnungen sehen, die sie darauf hinweisen, dass die Inhalte falsch sind. – Dieser Ansatz ist entscheidend für Facebooks Strategie, die aus den Gesprächen mit Experten resultiert. Wenn alle manipulierten Videos einfach nur entfernt werden, die von Faktenprüfern als falsch gekennzeichnet wurden, wären die Videos immer noch an anderer Stelle im Internet oder im Social Media Netzwerk verfügbar. Indem sie allerdings verfügbar bleiben, aber als falsch gekennzeichnet werden, erhalten die Nutzer somit wichtige Informationen.
Aufspüren der Verfasser, Projekte zum Erkennen von Deepfakes
Auch profitiert die Durchsetzungsstrategie gegen irreführende und manipulierte Medien davon, die Menschen hinter diesen aufzuspüren. Erst im vergangenen Monate konnte ein Netzwerk identifiziert und entfernt werden, das KI-generierte Fotos verwendete, um deren gefälschten Konten zu verbergen. Facebooks Teams gehen weiterhin proaktiv auf die Jagd nach gefälschten Accounts und anderen koordinierten, nicht authentischen Verhaltensweisen.
[mk_ad]
Facebook beschäftigt sich auch mit der Identifizierung von manipulierten Inhalten, von denen Deepfakes am schwierigsten zu erkennen sind. Aus diesem Grund wurde im September letzten Jahres die „Deep Fake Detection Challenge“ ins Leben gerufen, die Menschen aus aller Welt dazu anspornt, mehr Forschung und Open-Source-Tools zur Erkennung von Deepfakes zu entwickeln. Dieses Projekt, das mit 10 Millionen Dollar an Zuschüssen unterstützt wird, umfasst eine sektorübergreifende Koalition von Organisationen, darunter die Partnership on AI, Cornell Tech, die University of California Berkeley, MIT, WITNESS, Microsoft, die BBC und AWS, neben mehreren anderen in der Zivilgesellschaft und der Technologie-, Medien- und akademischen Gemeinschaft.
In einem separaten Projekt hat Facebook sich mit Reuters, dem weltweit größten Anbieter von Multimedia-Nachrichten, zusammengeschlossen, um Nachrichtenredaktionen weltweit dabei zu unterstützen, Deepfakes und manipulierte Medien durch einen kostenlosen Online-Trainingskurs zu identifizieren. Nachrichtenorganisationen verlassen sich bei großen Mengen an Bildern und Videos zunehmend auf Dritte, und die Identifizierung von manipuliertem Bildmaterial ist eine große Herausforderung. Dieses Programm zielt darauf ab, Nachrichtenredaktionen bei dieser Arbeit zu unterstützen.
In dem Maße, wie sich diese Partnerschaften und Facebooks eigene Erkenntnisse entwickeln, wird sich auch die Politik gegenüber manipulierten Medien weiterentwickeln. In der Zwischenzeit besteht eine Verpflichtung, innerhalb von Facebook zu investieren und mit anderen Interessengruppen in diesem Bereich zusammenzuarbeiten, um Lösungen mit echtem Einfluss zu finden.
Quelle: about.fb.com
Artikelbild: about.fb.com
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)