Missbrauch von ChatGPT: KI-Modell zur Erstellung von Schadsoftware eingesetzt

Die Analyse von Chats in Dark-Web-Foren hat gezeigt, dass Cyberkriminelle zunehmend auf künstliche Intelligenz setzen, um ihre kriminellen Aktivitäten zu optimieren. Insbesondere wird ChatGPT als Werkzeug zur Entwicklung von Malware immer beliebter.

Autor: Nick L.


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


Die Veröffentlichung von ChatGPT durch das Forschungslabor für künstliche Intelligenz OpenAI hat zu einer intensiven Diskussion über die Entwicklung und Nutzung von KI-Modellen geführt. Doch wie jedes mächtige Werkzeug kann auch ChatGPT in den falschen Händen große Schäden anrichten.

Laut den Cybersecurity-Forschern von Check Point haben Cyberkriminelle bereits begonnen, ChatGPT für ihre bösartigen Zwecke einzusetzen. „Selbst Bedrohungsakteure mit sehr geringem technischem Wissen – bis hin zu null technischem Wissen – könnten in der Lage sein, bösartige Tools zu erstellen“, warnt Sergey Shykevich, Threat Intelligence Group Manager bei Check Point. Der Missbrauch von ChatGPT könnte die täglichen Operationen von raffinierten Cyberkriminellen erheblich vereinfachen und effizienter machen, indem sie beispielsweise verschiedene Teile der Infektionskette schnell und einfach erstellen können. Die Nutzung von ChatGPT für kriminelle Zwecke ist ein alarmierendes Beispiel für den Missbrauch von KI-Modellen in der Cyberkriminalität.

Cyberkriminelle nutzen KI-Tools von OpenAI zur Entwicklung von Malware

Obwohl die Nutzungsbedingungen von OpenAI ausdrücklich die Generierung von Malware verbieten, scheinen Cyberkriminelle bereits ChatGPT zu nutzen, um bösartige Tools zu entwickeln. Eine Analyse der Aktivitäten in mehreren großen Untergrund-Hacking-Foren deutet darauf hin, dass ChatGPT bereits für die Erstellung von Malware eingesetzt wird. Ein Poster in einem Forum beschrieb Ende letzten Jahres, wie er ChatGPT nutzte, um Malware-Stämme und -Techniken zu imitieren, die in Forschungsveröffentlichungen und Aufzeichnungen über gängige Malware beschrieben werden. Das Ergebnis war eine Python-basierte Malware, die nach gängigen Dateien wie Microsoft Office-Dokumenten, PDFs und Bildern sucht, diese kopiert und dann auf einen File Transfer Protocol-Server hochlädt. Interessanterweise teilt der Forumsnutzer seine Beiträge, um weniger technisch versierten Cyberkriminellen zu zeigen, wie sie KI-Tools für bösartige Zwecke einsetzen können.

Dark-Web-Marktplätze und Kryptowährungen: Die wachsende Bedrohung durch automatisierte Tools

Ein Python-Skript, das zum Ver- und Entschlüsseln von Dateien entwickelt wurde, wurde von einem Benutzer in einem Forum geteilt. Obwohl der Benutzer behauptet, dass dies sein erstes Skript sei, könnte es möglicherweise in Ransomware umgewandelt werden, was dazu führen könnte, dass Cyberkriminelle auf niedriger Ebene Erpressungskampagnen starten. Laut Check Point kann das Skript leicht so modifiziert werden, dass es den Computer einer Person vollständig verschlüsselt, ohne jegliche Benutzerinteraktion.

Neben ChatGPT experimentieren Cyberkriminelle auch mit anderen Tools. In einem Untergrund-Forum wurde in der Silvesternacht ein Beitrag veröffentlicht, der zeigte, wie man mit einem Tool automatisierte Skripte erstellen kann, um einen Dark-Web-Marktplatz für gestohlene Kontodaten, Kreditkarteninformationen oder Malware zu betreiben. Ein Cyberkrimineller hat sogar einen Code erstellt, der aktuelle Preise für Kryptowährungen wie Monero, Bitcoin und Ethereum als Teil eines Zahlungssystems für den Marktplatz integriert.

Quelle:

ZDNET

Passend dazu:
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen
GPT-4 & Co: Warum dich die glorifizierte KI so gerne anlügt


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama