In einer Serie von gefälschten Nachrichten-Audiodateien geben sich Betrüger als Tagesschau-Moderatoren aus und täuschen Entschuldigungen für erfundene Falschmeldungen vor. „Guten Abend, meine Damen und Herren. Ich begrüße Sie in der Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Wir haben Ihnen seit über drei Jahren dreist ins Gesicht gelogen“, proklamiert eine dieser Dateien. Diese beginnen mit dem bekannten Jingle der Sendung, was den Anschein erweckt, es handele sich um echte Beiträge von den Nachrichtensprechern Susanne Daubner und Jens Riewa. Es kursieren drei solcher Audioaufnahmen, die alle ähnliche, vermeintliche Entschuldigungen enthalten.

Die Verbreitung von gefälschten KI-generierten Audiodateien, die sich als Beiträge der Tagesschau ausgeben, hat in letzter Zeit zugenommen. Mit diesen Dateien wird versucht, den Ruf und die Glaubwürdigkeit einer der bekanntesten Nachrichtensendungen Deutschlands zu untergraben. Die Fälschungen sind so gestaltet, dass der Eindruck entsteht, Moderatoren wie Susanne Daubner und Jens Riewa würden sich für „bewusste Manipulation“ und „Lügen“ entschuldigen. Die Verwendung des offiziellen Tagesschau-Jingles zu Beginn der Audiodateien trägt zur Illusion bei, es handele sich um echte Sendungen.

Anmeldung zum aktuellen Workshop „KI zwischen Furcht und Faszination**“ am **07.12.2023

Anatomie der gefälschten Audiodateien

Die Fälschungen enthalten angebliche Entschuldigungen der Tagesschau-Sprecher für die Berichterstattung über Themen wie den Krieg in der Ukraine, die Corona-Pandemie und die Darstellung von Demonstranten. Es wird behauptet, die Tagesschau habe Lügen verbreitet und Bürger fälschlicherweise als Extremisten abgestempelt. Diese Behauptungen wurden jedoch vom Chefredakteur von ARD-aktuell, Marcus Bornheim, als eindeutige Fälschungen identifiziert.

Erkennungsmerkmale der Fälschungen

Auch wenn die Stimmen auf den ersten Blick authentisch wirken, zeigt eine genauere Analyse, dass sie mechanisch klingen und Fehler in Betonung und Sprachmelodie aufweisen. Besonders auffällig sind diese Abweichungen in den Passagen, in denen die realen Verabschiedungen der Sprecher eingefügt wurden.

Lesen Sie auch >   Soziale Medien: Segen und Fluch für die Jüngsten

Die Herausforderung, Fälschungen zu identifizieren

Andreas Dengel vom DFKI betont, dass es trotz der offensichtlichen Fälschungen in diesem Fall generell immer schwieriger wird, KI-generierte Audios zu erkennen. Die Technologie hat das Potenzial, feine menschliche Nuancen nachzuahmen, was die Unterscheidung zwischen echt und gefälscht erschwert.

Verbreitung und Wirkung der gefälschten Audios

Die Fälschungen wurden unter anderem auf einer Demonstration in Kiel abgespielt und in sozialen Netzwerken verbreitet. Die Inhalte der Demonstration und die in den gefälschten Audiodateien vertretenen Positionen weisen Parallelen auf. Die Fähigkeit der Menschen, Inhalte auf ihre Plausibilität hin zu überprüfen, wird auf die Probe gestellt.

Missbrauch der Glaubwürdigkeit

Die Glaubwürdigkeit von Nachrichtensprechern wird ausgenutzt, um Fälschungen mehr Gewicht zu verleihen. Dies stellt eine Gefahr für die öffentliche Meinungsbildung und die freiheitlich-demokratische Grundordnung dar.

Anmeldung zum aktuellen Workshop „KI zwischen Furcht und Faszination**“ am **07.12.2023

Fazit

Die zunehmende Flut von KI-generierten Fälschungen im Nachrichtensektor stellt eine ernsthafte Bedrohung für die Informationsintegrität dar. Es ist von entscheidender Bedeutung, dass sowohl Einzelpersonen als auch Institutionen ihre Medienkompetenz verbessern und Mechanismen entwickeln, um echte Nachrichten von gefälschten zu unterscheiden. Die aktuellen Fälschungen unterstreichen die Notwendigkeit, Informationen kritisch zu hinterfragen und Quellen sorgfältig zu prüfen.

Quelle: Tagesschau.de

Das könnte Sie auch interessieren:

Bleiben Sie immer auf dem Laufenden und melden Sie sich für den Mimikama-Newsletter an. Nutzen Sie auch das Medienbildungsangebot von Mimikama, um auf dem aktuellen Stand in der digitalen Welt zu bleiben.

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)