ChatGPT löst Flut neuer Domains aus – Missbrauch ist möglich

Aufstieg und Missbrauch von ChatGPT! – Die dunkle Seite der Künstlichen Intelligenz.

Autor: Claudia Spiess

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

ChatGPT hat sich als eine der am schnellsten wachsenden Verbraucheranwendungen aller Zeiten etabliert. Diese Popularität hat jedoch auch Betrüger auf den Plan gerufen. Sie versuchen, durch die Verwendung von Wörtern und Domainnamen, die mit der Website in Verbindung zu stehen scheinen, Geld zu machen.

Trends bei verdächtigen Aktivitäten

Während OpenAI sich zu einer der bekanntesten Marken im Bereich der künstlichen Intelligenz entwickelt, haben Forscher mehrere Fälle festgestellt, in denen Bedrohungsakteure Domains registrieren und nutzen, die „openai“ und „chatgpt“ in ihrem Domainnamen verwenden (z. B. openai[.]us, openai[.]xyz und chatgpt[.]jobs).

Obwohl die meisten dieser Domains Anfang April 2023 noch keine bösartigen Inhalte hosten, ist es beunruhigend, dass sie nicht unter der Kontrolle von OpenAI oder anderen authentischen Domain-Management-Unternehmen sind. Es ist möglich, dass sie jederzeit missbraucht werden, um Schaden anzurichten.

Fallstudien von ChatGPT-Betrug

Bei ihren Untersuchungen haben die Experten mehrere Phishing-URLs beobachtet, die versuchen, offizielle OpenAI-Websites zu imitieren. In der Regel erstellen die Betrüger eine gefälschte Website, die das Erscheinungsbild der offiziellen ChatGPT-Website exakt imitiert, um die Benutzer dazu zu verleiten, Malware herunterzuladen oder vertrauliche Informationen preiszugeben.

Darüber hinaus könnten Betrüger Social Engineering rund um ChatGPT nutzen, um Identitätsdiebstahl zu begehen oder finanziellen Betrug zu begehen. OpenAI bietet den Benutzern eine kostenlose Version ihres Chatbots an. Die Betrüger allerdings leiten die Opfer auf betrügerische Websites und behaupten, dass sie für diese Dienste bezahlen müssen. In diesem Fall wird auf der gefälschten Webseite versucht, die Opfer dazu zu verleiten, vertrauliche Informationen wie Kreditkartendaten und E-Mail-Adressen preiszugeben.

Die wachsende Beliebtheit von OpenAI wird von einigen Betrügern auch für Kryptowährungsbetrug ausgenutzt. In einem Beispiel missbrauchte ein Betrüger das OpenAI-Logo und den Namen von Elon Musk, um Opfer zu einer betrügerischen Kryptowährungs-Verlosung zu locken.

Die Risiken von Nachahmer-Chatbots

Mit der wachsenden Popularität von ChatGPT sind auch immer mehr Nachahmer-KI-Chatbot-Anwendungen auf den Markt gekommen. Einige dieser Anwendungen haben ihre eigenen großen Sprachmodelle im Angebot, während andere behaupten, sie würden ChatGPT-Dienste über die am 1. März angekündigte API zur Verfügung stellen. Derartige Nachahmer-Chatbots zu verwenden, könnte jedoch die Sicherheitsrisiken erhöhen.

Vor der Veröffentlichung der ChatGPT-API gab es mehrere Open-Source-Projekte, die es Benutzern ermöglichten, verschiedene Automatisierungstools zu verwenden, um sich mit dem Chatbot zu verbinden. In Anbetracht der Tatsache, dass dieser Dienst in bestimmten Ländern oder Regionen nicht zugänglich ist, könnten Websites, die mit Hilfe dieser Automatisierungstools oder der API erstellt wurden, eine beträchtliche Anzahl von Benutzern aus diesen Gebieten anziehen. Dies bietet auch Bedrohungsakteuren die Möglichkeit, ChatGPT zu monetarisieren: Sie können ihren Dienst als Proxy anbieten. Ein Beispiel hierfür ist eine chinesische Website, die einen Chatbot-Dienst anbietet, der gegen Bezahlung genutzt werden kann.

Kostenlos oder nicht, diese Nachahmer-Chatbots sind nicht vertrauenswürdig.

Fazit

Da die Popularität von ChatGPT und OpenAI weiter zunimmt, ist es von entscheidender Bedeutung, dass die Benutzer wachsam bleiben und sich potenzieller Betrugs- und Missbrauchsmöglichkeiten bewusst sind. Dies beinhaltet die Überprüfung der Authentizität von Websites und Diensten, die vorgeben, mit OpenAI oder ChatGPT in Verbindung zu stehen. Websites, die verdächtig erscheinen oder unerwartete Zahlungen verlangen, sollten gemieden werden.

Wenn die Nutzer eine defensive Haltung einnehmen und sich der oben genannten Risiken bewusst sind, werden sie in der Lage sein, sicherer mit KI-Technologien zu interagieren und von deren Vorteilen zu profitieren.

Quelle:

Unit42

Das könnte auch interessieren:
Die Sprache der digitalen Kommunikation: Von Narrativ und Storytelling bis zu Deepfakes und Infodemic
KI-generierte Online-Rezensionen: Fälschungen erkennen und Verbraucher schützen
Wenn auch der Skeptiker auf Fake News hereinfällt
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.