ChatGPT hat sich als eine der am schnellsten wachsenden Verbraucheranwendungen aller Zeiten etabliert. Diese Popularität hat jedoch auch Betrüger auf den Plan gerufen. Sie versuchen, durch die Verwendung von Wörtern und Domainnamen, die mit der Website in Verbindung zu stehen scheinen, Geld zu machen.

Trends bei verdächtigen Aktivitäten

Während OpenAI sich zu einer der bekanntesten Marken im Bereich der künstlichen Intelligenz entwickelt, haben Forscher mehrere Fälle festgestellt, in denen Bedrohungsakteure Domains registrieren und nutzen, die „openai“ und „chatgpt“ in ihrem Domainnamen verwenden (z. B. openai[.]us, openai[.]xyz und chatgpt[.]jobs).

Obwohl die meisten dieser Domains Anfang April 2023 noch keine bösartigen Inhalte hosten, ist es beunruhigend, dass sie nicht unter der Kontrolle von OpenAI oder anderen authentischen Domain-Management-Unternehmen sind. Es ist möglich, dass sie jederzeit missbraucht werden, um Schaden anzurichten.

Fallstudien von ChatGPT-Betrug

Bei ihren Untersuchungen haben die Experten mehrere Phishing-URLs beobachtet, die versuchen, offizielle OpenAI-Websites zu imitieren. In der Regel erstellen die Betrüger eine gefälschte Website, die das Erscheinungsbild der offiziellen ChatGPT-Website exakt imitiert, um die Benutzer dazu zu verleiten, Malware herunterzuladen oder vertrauliche Informationen preiszugeben.

Darüber hinaus könnten Betrüger Social Engineering rund um ChatGPT nutzen, um Identitätsdiebstahl zu begehen oder finanziellen Betrug zu begehen. OpenAI bietet den Benutzern eine kostenlose Version ihres Chatbots an. Die Betrüger allerdings leiten die Opfer auf betrügerische Websites und behaupten, dass sie für diese Dienste bezahlen müssen. In diesem Fall wird auf der gefälschten Webseite versucht, die Opfer dazu zu verleiten, vertrauliche Informationen wie Kreditkartendaten und E-Mail-Adressen preiszugeben.

Die wachsende Beliebtheit von OpenAI wird von einigen Betrügern auch für Kryptowährungsbetrug ausgenutzt. In einem Beispiel missbrauchte ein Betrüger das OpenAI-Logo und den Namen von Elon Musk, um Opfer zu einer betrügerischen Kryptowährungs-Verlosung zu locken.

Die Risiken von Nachahmer-Chatbots

Mit der wachsenden Popularität von ChatGPT sind auch immer mehr Nachahmer-KI-Chatbot-Anwendungen auf den Markt gekommen. Einige dieser Anwendungen haben ihre eigenen großen Sprachmodelle im Angebot, während andere behaupten, sie würden ChatGPT-Dienste über die am 1. März angekündigte API zur Verfügung stellen. Derartige Nachahmer-Chatbots zu verwenden, könnte jedoch die Sicherheitsrisiken erhöhen.

Vor der Veröffentlichung der ChatGPT-API gab es mehrere Open-Source-Projekte, die es Benutzern ermöglichten, verschiedene Automatisierungstools zu verwenden, um sich mit dem Chatbot zu verbinden. In Anbetracht der Tatsache, dass dieser Dienst in bestimmten Ländern oder Regionen nicht zugänglich ist, könnten Websites, die mit Hilfe dieser Automatisierungstools oder der API erstellt wurden, eine beträchtliche Anzahl von Benutzern aus diesen Gebieten anziehen. Dies bietet auch Bedrohungsakteuren die Möglichkeit, ChatGPT zu monetarisieren: Sie können ihren Dienst als Proxy anbieten. Ein Beispiel hierfür ist eine chinesische Website, die einen Chatbot-Dienst anbietet, der gegen Bezahlung genutzt werden kann.

Kostenlos oder nicht, diese Nachahmer-Chatbots sind nicht vertrauenswürdig.

Fazit

Da die Popularität von ChatGPT und OpenAI weiter zunimmt, ist es von entscheidender Bedeutung, dass die Benutzer wachsam bleiben und sich potenzieller Betrugs- und Missbrauchsmöglichkeiten bewusst sind. Dies beinhaltet die Überprüfung der Authentizität von Websites und Diensten, die vorgeben, mit OpenAI oder ChatGPT in Verbindung zu stehen. Websites, die verdächtig erscheinen oder unerwartete Zahlungen verlangen, sollten gemieden werden.

Wenn die Nutzer eine defensive Haltung einnehmen und sich der oben genannten Risiken bewusst sind, werden sie in der Lage sein, sicherer mit KI-Technologien zu interagieren und von deren Vorteilen zu profitieren.

Quelle:

Unit42

Das könnte auch interessieren:
Die Sprache der digitalen Kommunikation: Von Narrativ und Storytelling bis zu Deepfakes und Infodemic
KI-generierte Online-Rezensionen: Fälschungen erkennen und Verbraucher schützen
Wenn auch der Skeptiker auf Fake News hereinfällt


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)