Deepfakes, mit Hilfe künstlicher Intelligenz produzierte Videos oder Bilder, werden immer öfter für Erpressungen und Betrug, Fälschungen von Dokumenten, Manipulationen am Finanzmarkt, aber auch für Desinformation verwendet.

Nun teilte Europol mit, dass diese Technologie auch die Arbeit von Polizei und Justiz behindern können. Beispielsweise könnte die Justiz getäuscht werden, indem manipulierte Bilder oder Videos als vermeintliche Beweismittel herangezogen werden.

Künstliche Intelligenz arbeitet immer fortschrittlicher. Umso herausfordernder wird es, in der polizeilichen Aufklärungsarbeit nicht davon getäuscht zu werden.

Kriminelle Anwendungsbeispiele

Europol gibt Einblick in verschiedene Methoden, mit denen Kriminelle arbeiten. So können Erpressungsversuche beispielsweise mit gefakten Pornovideos gestartet werden. Auch geben sich Betrüger am Telefon als Vorgesetzte aus. Die Stimmen werden durch KI bearbeitet, sodass diese durchaus echt klingen. Angestellte können dadurch beispielsweise zu Überweisungen bewegt werden.

Durch die Corona-Krise und vermehrte Home Office-Tätigkeit wurden hier weitere Ansatzpunkte für betrügerische Verwendung von Deepfakes geschaffen.

Bericht der Europol

Vergangene Woche hat Europol einen Bericht mit dem Titel „Facing Reality? Strafverfolgung und die Herausforderung von Deepfakes“ veröffentlicht. Hier werden verschiedene kriminelle Nutzungsbeispiele aufgezeigt. Ebenso erhält man einen Einblick über die Herausforderungen der Strafverfolgung bei der Aufdeckung und Verhinderung von betrügerischen Deepfakes.

Um der Weiterentwicklung von Deepfake-Technologie Maßnahmen entgegensetzen zu können, empfiehlt Europol automatisierte Programme zum Erkennungen von Fakes in Polizeibehörden. Auch sollte die Gesetzgebung mit den Entwicklungen mitziehen.

Das könnte auch interessieren: Geben Sie am Telefon Fremden NICHT Ihre persönlichen Daten weiter

Quelle: Handelsblatt


Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Wenn dir unsere Arbeit gefällt und du findest, dass sie dir weiterhilft, ist es dir vielleicht 4,50 EUR im Monat wert, uns zu unterstützen? Mit einem kleinen Beitrag kannst du dazu beitragen, dass wir weiterhin Fehlinformationen entgegenwirken und die Öffentlichkeit aufklären.

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)