Europol, UNICRI und Trend Micro berichten über aktuelle und zukünftige Bedrohungen durch KI

Trend Micro stellt heute einen neuen Forschungsbericht vor, der in Zusammenarbeit mit Europol und dem Interregionalen Institut der Vereinten Nationen für Kriminalitäts- und Justizforschung (UNICRI) entstand. Darin befassen sich die Sicherheitsforscher mit der aktuellen und möglichen zukünftigen Nutzung von künstlicher Intelligenz (KI) durch Kriminelle. Der Bericht liefert Strafverfolgungsbehörden, politischen Entscheidungsträgern und anderen Organisationen Informationen über aktuell stattfindende und potenzielle zukünftige Angriffe, bei denen künstliche Intelligenz eingesetzt wird, sowie Empfehlungen zur Eindämmung dieser Risiken.

„KI verspricht der Welt mehr Effizienz, Automatisierung und Autonomie. In einer Zeit, in der die Öffentlichkeit zunehmend über den möglichen Missbrauch von KI besorgt ist, müssen wir die Bedrohungen transparent machen, aber auch die potenziellen Vorteile der KI-Technologie untersuchen“, sagt Edvardas Šileris, Leiter des Cyberkriminalitätszentrums von Europol (Europol EC3). „Dieser Bericht wird uns nicht nur dabei helfen, mögliche böswillige Verwendungen und Missbräuche von KI zu antizipieren, sondern auch diese Bedrohungen proaktiv zu verhindern und einzudämmen. Auf diese Weise können wir das Potenzial der KI freisetzen und von der positiven Nutzung der KI-Systeme profitieren.“

Der Bericht kommt zu dem Schluss, dass Cyberkriminelle KI sowohl als Angriffsvektor als auch als Angriffsoberfläche nutzen werden. Deepfakes (realistisch wirkende Medieninhalte wie Foto, Audio und Video, welche durch KI abgeändert und verfälscht wurden) stellen derzeit die bekannteste Nutzung von KI als Angriffsvektor dar. Der Bericht warnt jedoch davor, dass in Zukunft neue Screening-Technologien erforderlich sein werden, um das Risiko von Desinformationskampagnen und Erpressung sowie von Bedrohungen, die auf KI-Datensätze abzielen, zu verringern.

KI könnte beispielsweise eingesetzt werden, um folgende Angriffsarten zu unterstützen:

  • Überzeugende Social-Engineering-Angriffe in großem Maßstab
  • Malware, mit der in großem Maße bestimmte Daten aus Dokumenten exfiltriert werden können (Document Scraping)
  • Umgehung von Bilderkennung und Stimmbiometrie
  • Ransomware-Angriffe, bei denen die Opfer noch gezielter ausgewählt und Schutzmechanismen umgangen werden
  • Datenverschmutzung durch die Identifizierung von blinden Stellen in Erkennungsregeln

„In dem Maße, in dem KI-Anwendungen einen wachsenden Einfluss auf die reale Welt nehmen, wird klar, dass dies zukünftig eine grundlegende Technologie sein wird“, erklärt Irakli Beridze, Leiter des Zentrums für KI und Robotik bei UNICRI. „Doch so wie KI für die Gesellschaft sehr reale Vorteile bietet sind, ist auch die Bedrohung durch böswillige Nutzung allgegenwärtig. Wir fühlen uns geehrt, gemeinsam mit Europol und Trend Micro ein Licht auf die dunkle Seite der KI zu werfen und weitere Diskussionen zu diesem wichtigen Thema anzuregen.“

Der Report warnt auch davor, dass KI-Systeme entwickelt werden, um die Wirksamkeit von Malware zu verbessern und Anti-Malware- und Gesichtserkennungssysteme zu stören.

„Cyberkriminelle gehören schon immer zu den ersten Nutzern der neuesten Technologien – das ist auch bei KI so. Wie unser Bericht zeigt, wird sie bereits für das Ermitteln von Passwörtern, das Brechen von CAPTCHA-Codes und das Klonen von Stimmen verwendet. Zudem sind noch viele weitere bösartige Innovationen in Arbeit“, so Martin Rösler, Leiter des Forward-Looking Threat Research Teams bei Trend Micro. „Wir sind stolz darauf, mit Europol und UNICRI zusammenzuarbeiten, um das Bewusstsein für diese Bedrohung zu schärfen und auf diese Weise dazu beizutragen, eine sicherere digitale Zukunft für uns alle zu schaffen.“

Die drei Organisationen empfehlen zum Abschluss des Berichts verschiedene Maßnahmen im Umgang mit KI:

  • Nutzung des Potentials von KI-Technologie als Mittel zur Verbrechensbekämpfung, um die Cybersicherheits-Branche und die Polizei zukunftsfähig zu machen
  • Fortsetzung der Forschung im KI-Bereich, um weitere Verteidigungstechnologien zu entwickeln
  • Förderung und Entwicklung sicherer KI-Design-Frameworks
  • Deeskalation von politisch aufgeladener Rhetorik über den Einsatz von KI für Zwecke der Cybersicherheit
  • Nutzung öffentlich-privater Partnerschaften und Einrichtung multidisziplinärer Expertengruppen

Weitere Informationen:

Der vollständige Forschungsbericht Malicious Uses and Abuses of Artificial Intelligence ist in englischer Sprache hier zum Download verfügbar.


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)