Betrüger bieten mit einer gefälschten ChatGPT-Version nun angebliche Unterstützung beim Investieren und Verdienen von Geld an, wie Bitdefender herausgefunden hat.

E-Mails führen zu ChatGPT-Fake

Laut Bitdefender Antispam Labs starten diese „KI-gestützten“ Betrügereien mit einer einfachen E-Mail, die unaufgefordert im Posteingang landet. Derzeit zielen die Versender hier laut Bitdefender auf Nutzer in Deutschland, Dänemark, Australien, Irland und den Niederlanden ab. Der Betreff variiert, mögliche Betreffzeilen sind:

  • ChatGPT: Der neue KI-Bot lässt alle verrückt werden
  • ChatGPT: Der neue KI-Bot hat alle geschockt
  • Der neue ChatGPT Chatbot macht jetzt alle verrückt – aber er wird sehr bald ein so banales Tool wie Google sein
  • Warum sind alle Leute in Panik wegen des ChatGPT-Bots?

Wenn das mal keine reißerischen Titel sind. Da ChatGPT seit einiger Zeit in aller Munde ist und immer wieder zu Diskussionen führt, ist es durchaus möglich, dass ein solcher Betreff dazu verleitet, die E-Mail zu öffnen. Diese enthält kaum Text, sodass die Empfänger den Link in der E-Mail aufrufen müssen, der sie angeblich zu ChatGPT führt.

Die Forscher von Bitdefender Antispam Labs haben das genauer unter die Lupe genommen.

Fake-ChatGPT hilft angeblich bei der Geldvermehrung

Nun wird es interessant. Der Chatbot der gefälschten Plattform beginnt mit einer kurzen Einführung, in der er erklärt, wie er die Finanzmärkte analysiert und jedem helfen kann, ein erfolgreicher Investor in globale Aktien zu werden. Ungewöhnlich, denn der echte Chatbot antwortet generell nur auf Eingaben oder Fragen der Nutzer und verfasst nicht ungefragt irgendwelche Texte. Außerdem war eine freie Eingabe von Antworten nicht möglich. Stattdessen mussten die Forscher von Bitdefender zwischen vordefinierten Antworten wählen.

Der weitere Ablauf:

  • Der Chatbot möchte zuerst das tägliche Einkommen des Nutzers berechnen.
  • Anschließend wird eine E-Mail Adresse abgefragt, mit der die „Echtheit“ des Nutzers bestätigt werden soll.
  • Danach soll man noch zusätzliche Kontaktinformationen für den eigenen „persönlichen Assistenten“ angeben. Dieser soll dabei helfen, ein WhatsApp-Konto für die kommenden Einnahmen zu aktivieren.
  • Darauf folgt ein Anruf. Es wird nach einer Investitionssumme gefragt, die über 250 Euro liegen müsse.
  • Außerdem werden die letzten sechs Ziffern eines gültigen Personalausweises abgefragt.
  • In weiterer Folge erhält man einen Link zu einem Formular, über das die Transaktionen gestartet werden können. Hier werden weitere persönliche Daten abgefragt wie z.B. Name, Geburtsdatum, Anschrift und auch Zahlungsmethode (Debit- oder Kreditkarten, Klarna).

Mit all diesen abgefragten Daten könnte es den Betrügern möglich sein, eine vollständige Identitätsnummer zusammenzustellen und damit Identitätsdiebstahl begehen.

Es ist nichts Neues, dass Betrüger neue Tools oder Trends im Internet für Betrügereien nutzen. Um das offizielle ChatGPT und dessen KI-gesteuerte Textgenerierung auszuprobieren, sollte man nur über die offizielle Webseite einsteigen.

Niemals auf Links klicken, die in unaufgefordert zugesendeten Nachrichten enthalten sind! Besonders vorsichtig sollte man bei Investitionsangeboten sein, warnt Bitdefender.

Quelle:

Bitdefender, futurezone.de

Schon gelesen?
Nein, man kann einen Herzinfarkt nicht mit Schlägen in die Ellenbeuge behandeln
Himbeeren statt Schmerzmittel? Über Wissenschaftsferne …
Selenskyj sprach nicht über US-Truppeneinsatz in der Ukraine
Betrug im Web: FTC knöpft sich Meta und Co. vor
Phishing-Welle: Vorsicht vor Fake Disney+ Mails

    Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
    2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)