Künstliche Intelligenz: Wenn aus Deepfakes News werden

Foto- und Videomanipulationen lassen sich mit speziellen, frei verfügbaren Apps leicht herstellen. Dabei wird es immer schwieriger, gefälschtes Material zu erkennen und von authentischen Inhalten zu unterscheiden.

Ein Moment Ihrer Zeit für die Wahrheit.

In einer Welt voller Fehlinformationen und Fake News ist es unser Auftrag bei Mimikama.org, Ihnen zuverlässige und geprüfte Informationen zu liefern. Tag für Tag arbeiten wir daran, die Flut an Desinformation einzudämmen und Aufklärung zu betreiben. Doch dieser Einsatz für die Wahrheit benötigt nicht nur Hingabe, sondern auch Ressourcen. Heute wenden wir uns an Sie: Wenn Sie die Arbeit schätzen, die wir leisten, und glauben, dass eine gut informierte Gesellschaft für die Demokratie essentiell ist, bitten wir Sie, über eine kleine Unterstützung nachzudenken. Schon mit wenigen Euro können Sie einen Unterschied machen.

Stellen Sie sich vor, jeder, der diese Zeilen liest, würde sich mit einem kleinen Beitrag beteiligen – gemeinsam könnten wir unsere Unabhängigkeit sichern und weiterhin gegen Fehlinformationen ankämpfen.

So kannst Du unterstützen:

PayPal: Für schnelle und einfache Online-Zahlungen.
Steady oder Patreon: für regelmäßige Unterstützung.

Autor: Susanne Breuer

Werden manipulierte Bilder für Fake News verwendet, kann dies enorme Folgen haben.

Die Erstellung von Fake-Videos und Fake-Bildern mit KI wird immer einfacher

Deepfakes sind mithilfe von Künstlicher Intelligenz (KI) erstellte, realistisch wirkende Medieninhalte – das können Bilder, Videos oder Tonaufnahmen sein.

Während eine KI noch vor wenigen Jahren viele Bilddateien einer Person benötigte, um gute Deepfakes zu erstellen, reicht heute ein einziges Foto aus einem öffentlich zugänglichen Social-Media-Account aus, um täuschend echt aussehende Fälschungen zu erstellen. Durch kostenlose Face-Apps und frei verfügbare Browser-Anwendungen wird es immer einfacher, solche Fakes zu erstellen und anschließend zu verbreiten.

Face-Apps nutzen eine Technik namens Face-Swapping, bei der das eigene Gesicht oder das Gesicht einer anderen Person in Videoclips und Filmszenen eingefügt wird. Solche Clips können in Sekundenschnelle in erstaunlich guter Qualität erstellt und verbreitet werden. Browserbasierte KI-Anwendungen, sogenannte Bildsynthesizer, erzeugen (fotorealistische) Bilder auf der Grundlage von Textbeschreibungen, sogenannten Prompts, und bieten ein breites Spektrum an Bildstilen. So kann beispielsweise auf Bilder prominenter Personen, bekannter Gebäude oder Landschaften zurückgegriffen werden. Diese technischen Möglichkeiten heben die Bildmanipulation auf eine neue Ebene.

In jüngster Zeit haben verschiedene Journalisten in den sozialen Medien für einige Verwirrung gesorgt. So kursierten KI-generierte Bilder vom Papst als Influencer oder von der vermeintlichen Verhaftung des ehemaligen US-Präsidenten Donald Trump, die von vielen Nutzern offenbar nicht als Fake erkannt wurden – und so „viral“ gingen, obwohl sie als solche gekennzeichnet waren.

Wozu werden Deepfakes verwendet?

Deepfakes können für verschiedene Zwecke eingesetzt werden. Die Einsatzmöglichkeiten reichen von Satire und Unterhaltung über bewusste Desinformation und Propaganda bis hin zur gezielten Diskreditierung einzelner Personen. Wie die obigen Beispiele zeigen, können Deepfakes besonders im Zusammenhang mit Fake News gefährlich werden, da sie diese noch realistischer machen können.

Deepfakes werden auch für Cybermobbing eingesetzt, indem beispielsweise die Köpfe von Betroffenen in Pornovideos montiert und über Messenger verbreitet werden.

Auch Betrug mit Deepfakes ist möglich

Es ist auch denkbar, dass KI in betrügerischer Absicht eingesetzt wird. Love-Scammer könnten diese Technik beispielsweise in Dating-Apps einsetzen oder in Online-Partnerbörsen versuchen, andere Personen dazu zu bringen, erotisches Material mit ihnen zu teilen, um sie damit zu erpressen. Dabei geben sich die Täter als attraktive Männer oder Frauen aus und nutzen Deepfake-Videochats, um das Vertrauen potenzieller Opfer zu gewinnen. Dieses Vorgehen wird als Sextortion bezeichnet.

Für die Gesellschaft bedeutet dies, dass es für Betrüger immer einfacher wird, Bilder, Stimmen oder auch Texte zu verfremden und in ihrem Sinne zu verändern. Damit wird es schwieriger, Echtes von Gefälschtem zu unterscheiden. Bei der Prävention muss dies in Zukunft stärker berücksichtigt und vermehrt darauf hingewiesen werden. KI wird aber nicht nur von Kriminellen genutzt, auch Polizei und Strafverfolgungsbehörden setzen bei Ermittlungen zunehmend auf KI-basierte Analysetools.

Können Deepfakes erkannt werden?

Mittlerweile gibt es Programme, die ebenfalls auf Basis künstlicher Intelligenz versuchen, die Echtheit von Videos, Bildern und Audioinhalten zu überprüfen und Fälschungen zu identifizieren.

Allerdings ist die Unterscheidung von Fakes und echten Inhalten teilweise sehr schwierig. Derzeit gibt es noch Bereiche, in denen KI-Bildgeneratoren Schwierigkeiten haben, z.B. bei der Darstellung von Ohren und Händen oder von Gegenständen, die in der Hand gehalten werden. Auch Licht und Schatten sowie Perspektiven oder inkonsistente Bewegungen können Hinweise auf Fakes sein.

  • Achten Sie auf Artefakte: Hände haben oft zu wenige oder zu viele Finger, Arme fehlen oder sind abgeschnitten, Ohren haben eine schlecht differenzierte Form, ein „leerer“ Blick.
  • Bei Videos können inkonsistente oder zu statische Bewegungsabläufe ein Hinweis sein (z.B. verzerrte Gesichter/Mimik oder zu rhythmisches Blinzeln).
  • Überprüfen Sie die Perspektive: Passen Lichteinfall und Schattenwurf zusammen? Gibt es Verzerrungen?
  • Überprüfen Sie die Ausgangs bzw. Qualität des Bildes: Hat z.B. das Gesicht die gleiche Auflösung wie der Körper oder der Hintergrund des Bildes? Ist der Inhalt des Bildes oder Videos plausibel?
  • Plausibilität: Überprüfen Sie andere Quellen. Kann der dargestellte Inhalt von unabhängiger Seite auf seinen Wahrheitsgehalt überprüft werden?

Seriöse Nachrichtenseiten, Faktencheck-Portale und die Bilderrückwärtssuche von Suchmaschinen können bei der Prüfung hilfreich sein.

Wenn Sie Ihr Konterfei in einem Fake entdecken

Deepfakes verletzen – rechtlich gesehen – ohne entsprechende Einwilligung der Betroffenen Persönlichkeitsrechte oder können eine Beleidigung darstellen.

Wenn Sie Ihr Bild in einem künstlich erzeugten Bild oder Video entdecken, das ohne Ihre Zustimmung erstellt und verbreitet wurde, können Sie den Inhalt der Plattform melden, auf der er veröffentlicht wurde (in der Regel über einen „Melden“-Button oder eine entsprechende Funktion).

Darüber hinaus können Sie Anzeige bei der Polizei erstatten oder rechtliche Hilfe in Anspruch nehmen. Notieren Sie sich dazu die URL der Fundstelle sowie das Datum und die Uhrzeit der Veröffentlichung.

Bitte beachten Sie, dass es je nach Inhalt des Fakes strafbar sein kann, sich in den Besitz dieses Inhalts zu bringen. Erstellen Sie daher keine Screenshots. Wenn Sie unsicher sind, wie Sie am besten Beweise sichern können, wenden Sie sich an Ihre örtliche Polizeidienststelle.

Weitere Informationen

Weitere Informationen finden Sie auf den folgenden Seiten:

Quelle:

Polizeiliche Kriminalprävention der Länder und des Bundes
Schon gelesen? Wetter und Klima sind zwei Begriffe, die oft verwechselt oder synonym verwendet werden. Tatsächlich beschreiben sie jedoch unterschiedliche Phänomene. Mimikama erklärt den Unterschied: Wetter und Klima: die Unterschiede entschlüsseln und die Wechselwirkungen zwischen den beiden Naturphänomenen verstehen
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.