Die Veröffentlichung von ChatGPT durch das Forschungslabor für künstliche Intelligenz OpenAI hat zu einer intensiven Diskussion über die Entwicklung und Nutzung von KI-Modellen geführt. Doch wie jedes mächtige Werkzeug kann auch ChatGPT in den falschen Händen große Schäden anrichten.

Laut den Cybersecurity-Forschern von Check Point haben Cyberkriminelle bereits begonnen, ChatGPT für ihre bösartigen Zwecke einzusetzen. „Selbst Bedrohungsakteure mit sehr geringem technischem Wissen – bis hin zu null technischem Wissen – könnten in der Lage sein, bösartige Tools zu erstellen“, warnt Sergey Shykevich, Threat Intelligence Group Manager bei Check Point. Der Missbrauch von ChatGPT könnte die täglichen Operationen von raffinierten Cyberkriminellen erheblich vereinfachen und effizienter machen, indem sie beispielsweise verschiedene Teile der Infektionskette schnell und einfach erstellen können. Die Nutzung von ChatGPT für kriminelle Zwecke ist ein alarmierendes Beispiel für den Missbrauch von KI-Modellen in der Cyberkriminalität.

Cyberkriminelle nutzen KI-Tools von OpenAI zur Entwicklung von Malware

Obwohl die Nutzungsbedingungen von OpenAI ausdrücklich die Generierung von Malware verbieten, scheinen Cyberkriminelle bereits ChatGPT zu nutzen, um bösartige Tools zu entwickeln. Eine Analyse der Aktivitäten in mehreren großen Untergrund-Hacking-Foren deutet darauf hin, dass ChatGPT bereits für die Erstellung von Malware eingesetzt wird. Ein Poster in einem Forum beschrieb Ende letzten Jahres, wie er ChatGPT nutzte, um Malware-Stämme und -Techniken zu imitieren, die in Forschungsveröffentlichungen und Aufzeichnungen über gängige Malware beschrieben werden. Das Ergebnis war eine Python-basierte Malware, die nach gängigen Dateien wie Microsoft Office-Dokumenten, PDFs und Bildern sucht, diese kopiert und dann auf einen File Transfer Protocol-Server hochlädt. Interessanterweise teilt der Forumsnutzer seine Beiträge, um weniger technisch versierten Cyberkriminellen zu zeigen, wie sie KI-Tools für bösartige Zwecke einsetzen können.

Lesen Sie auch >   Halluzinationen der KI erkennen: Wie man unsichere Antworten von ChatGPT und Co. erkennt

Dark-Web-Marktplätze und Kryptowährungen: Die wachsende Bedrohung durch automatisierte Tools

Ein Python-Skript, das zum Ver- und Entschlüsseln von Dateien entwickelt wurde, wurde von einem Benutzer in einem Forum geteilt. Obwohl der Benutzer behauptet, dass dies sein erstes Skript sei, könnte es möglicherweise in Ransomware umgewandelt werden, was dazu führen könnte, dass Cyberkriminelle auf niedriger Ebene Erpressungskampagnen starten. Laut Check Point kann das Skript leicht so modifiziert werden, dass es den Computer einer Person vollständig verschlüsselt, ohne jegliche Benutzerinteraktion.

Neben ChatGPT experimentieren Cyberkriminelle auch mit anderen Tools. In einem Untergrund-Forum wurde in der Silvesternacht ein Beitrag veröffentlicht, der zeigte, wie man mit einem Tool automatisierte Skripte erstellen kann, um einen Dark-Web-Marktplatz für gestohlene Kontodaten, Kreditkarteninformationen oder Malware zu betreiben. Ein Cyberkrimineller hat sogar einen Code erstellt, der aktuelle Preise für Kryptowährungen wie Monero, Bitcoin und Ethereum als Teil eines Zahlungssystems für den Marktplatz integriert.

Quelle:

ZDNET

Passend dazu:
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen
GPT-4 & Co: Warum dich die glorifizierte KI so gerne anlügt

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)