Deepfakes: So werden Foto-, Video- und Audioinhalte manipuliert!
Dein Beitrag hilft Mimikama beim Faktencheck: Unterstütze uns via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe zählt, um Fakten zu klären und Verlässlichkeit zu sichern. Unterstütze jetzt und mach den Unterschied! ❤️ Danke
Geht es um Fake News und Desinformation, taucht immer wieder der Begriff Deepfakes auf. Aber was ist das eigentlich und wie kann man Deepfakes entlarven?
Was sind Deepfakes? Deepfakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz absichtlich verändert werden. Der Begriff setzt sich aus „Deep Learning“ (eine Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ zusammen. In diesen Videos, Bildern oder Sprachdateien sieht oder hört man Personen, die Sachen tun oder sagen, die sie tatsächlich gar nie getan oder gesagt haben.
Die Manipulation von Medieninhalten ist kein neues Phänomen und wurde bereits sehr früh eingesetzt, vor allem in Zusammenhang mit politischer Propaganda. Im Unterschied zu früher wird heute jedoch auf künstliche Intelligenz und die Rechenleistung von Computern gesetzt.
Eines der ersten Videos, das viel Aufmerksamkeit erregt hat, war ein Deepfake des ehemaligen US-Präsidenten Barack Obama. In diesem Video zeigt das Online-Medium BuzzFeed, wie Deepfakes funktionieren und wieso sie gefährlich sein können:
Wie erstellt man Deepfakes?
Mittlerweile hat sich viel rund um Deepfakes getan: So wird es immer einfacher, selbst Deepfakes zu erstellen. Durch verschiedenste Apps oder durch integrierte Filter in Sozialen Netzwerken kann man sein Gesicht in bekannte Filmszenen einsetzen lassen, sich selbst oder andere altern lassen oder das Geschlecht wechseln. Das alles geht mit nur wenigen Klicks.
Ein bekanntes Beispiel dafür ist die #FaceAppChallenge. Zahlreiche InternetnutzerInnen posteten 2019 unter diesem Hashtag ein Bild von sich, auf dem sie sich mit Hilfe einer App altern ließen. Natürlich machten auch viele Promis bei der Challenge mit – so zum Beispiel auch der Rapper Drake oder die Band Jonas Brothers.
Politische Einflussnahme durch Deepfakes
Doch nicht nur datenschutzrechtlich können Deepfakes problematisch sein: Manipulierte Videos werden auch gerne für Fake News eingesetzt. Denn Falschinformationen lassen sich ohne Bilder oder Videos als Beweis nur halb so gut verbreiten, da visuellen Medien mehr Glauben geschenkt wird. ExpertInnen sorgen sich davor, dass Deepfakes die öffentliche Meinung in Zukunft stark beeinflussen könnten.
Deepfakes zielen immer wieder auf PolitikerInnen ab: So wurde in einem Video das Gesicht der deutschen Bundeskanzlerin Angela Merkel mit dem Gesicht des damaligen US-Präsidenten Donald Trump getauscht. In den meisten Fällen – so wie auch hier – sind solche Deepfakes harmlos. Doch Deepfakes können missbraucht werden, um gezielt Stimmung gegen politische Entscheidungen, gegen Bevölkerungsgruppen oder gegen einzelne Persönlichkeiten zu machen.
Fake-Nacktbilder erstellen durch Deepfakes
Nicht zu vernachlässigen ist außerdem der Missbrauch von Deepfakes im pornografischen Bereich. Die Sensity-Studie „The State of Deepfakes“ aus dem Jahr 2020 zeigt, dass es sich bei 93 Prozent aller Deepfake Videos, die online zu finden sind, um pornografische Inhalte handelt.
Medial besonders bekannt wurde der „DeepNude Bot“ für den Messenger-Dienst Telegram. NutzerInnen müssen diesem Chatbot nur ein einziges Foto eines Opfers schicken und erhalten prompt das Foto mit der „ausgezogenen“ Person zurück. Betroffen von pornographischen Deepfakes sind fast zu 100 Prozent Frauen, wie die Sensity-Studie zeigt.
Wie erkennt man Deepfakes?
Derzeit sind viele Deepfake-Videos noch mit dem bloßen Auge erkennbar. Es gibt dabei typische Merkmale, an denen Sie Deepfakes erkennen können:
- Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder komisch aussehende Haare können entlarvend sein.
- Unscharfe Übergänge: Achten Sie auf Übergänge wie jenem zwischen Gesicht und Haaren oder Gesicht und Hals. Diese Übergänge sind bei Deepfakes oftmals unscharf.
- Fehlendes Blinzeln: Menschen blinzeln ganz automatisch, ohne sich dessen bewusst zu sein und zwar alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal!
- Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
- Unlogischer Hintergrund: Sehen Sie sich den Hintergrund sowie den Übergang von Gesicht zum Hintergrund an, oftmals zeigen sich erst beim genaureen Anschauen Fehler!
- Tools verwenden: Außerdem arbeiten unterschiedliche Unternehmen sowie Universitäten bereits an Tools, um Deepfakes zu erkennen. So gibt es zum Beispiel den Deepware Scanner, den DeepFake-o-meter oder die Deepfake Detection von DuckDuckGoose.
Doch Deepfakes werden immer besser und so wird es gleichzeitig schwieriger diese zu erkennen. Wie bei anderen Informationen aus dem Internet auch, sollten Sie den Kontext überprüfen:
- Unseriöse Quelle: Wo sind Sie auf das Video oder auf das Bild gestoßen? Ist die Quelle vertrauenswürdig oder eher dubios?
- Umgekehrte Suche: Auf TinEye.com oder berify.com können Sie Videos sowie Bilder hochladen, um im Internet danach zu suchen und so ihre Echtheit zu überprüfen.
- Skeptisch sein: Wenn die Aussagen oder das Verhalten der gezeigten Person sehr ungewöhnlich für die Person sind, können Sie ruhig skeptisch sein!
Vielen Dank an Saferinternet.at für dieses Thema und Inhalt.
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)
Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum
INSERT_STEADY_CHECKOUT_HERE
Sind Sie besorgt über Falschinformationen im Internet? Mimikama setzt sich für ein faktenbasiertes und sicheres Internet ein. Ihre Unterstützung ermöglicht es uns, weiterhin Qualität und Echtheit im Netz zu gewährleisten. Bitte unterstützen Sie und helfen Sie uns, ein vertrauenswürdiges digitales Umfeld zu schaffen. Ihre Unterstützung zählt! Werde auch Du ein jetzt ein Botschafter von Mimikama
Mimikama Workshops & Vorträge: Stark gegen Fake News!
Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.