Ein Mann wurde um Hunderte Dollar betrogen, nachdem ihm die Meta AI eine gefälschte Facebook-Kundendienstnummer als legitim bestätigt hatte. Dies berichtet CBC News!

Gaudreau benötigte Hilfe beim Übertragen seines Facebook-Kontos auf ein neues Handy. Seine Frau fand online eine vermeintliche Kundendienstnummer für Facebook. Bevor er dort anrief, überprüfte Gaudreau die Nummer in Facebook Messenger mithilfe des „Meta AI“-Tools, das ihm bestätigte, dass die Nummer „tatsächlich eine legitime Facebook-Support-Nummer“ sei.

Hinweis: Dieses Tool ist bei uns aktuell (Juni 2024) noch nicht verfügbar!

In dem geschilderten Vorfall wurde Dave Gaudreau die gefälschte Kundendienstnummer durch die künstliche Intelligenz von Meta, speziell durch das „Meta AI“ Tool in der Messenger-App, als legitim bestätigt. Dieses Tool hat die Aufgabe, auf Anfragen der Benutzer zu antworten und Informationen bereitzustellen, basierend auf den Daten, auf die es trainiert wurde.

Gaudreau machte diesen Screenshot seiner Nachricht von Meta AI, nachdem er eine Suche durchgeführt hatte, um die angebliche Support-Nummer zu bestätigen. (Screenshot von Dave Gaudreau)
Gaudreau machte diesen Screenshot seiner Nachricht von Meta AI, nachdem er eine Suche durchgeführt hatte, um die angebliche Support-Nummer zu bestätigen. (Screenshot von Dave Gaudreau)

Doch die böse Überraschung folgte schnell: Der Betrüger am anderen Ende der Leitung forderte seine Facebook-Anmeldedaten und bekam Zugriff auf sein Konto. Während des Telefonats wurde auch sein PayPal-Konto gehackt und ein Apple-Geschenkgutschein im Wert von 500 Dollar gekauft. Nur dank seiner Bank, die den Kauf von Bitcoin verhinderte, blieb der Schaden begrenzt.

Der Fall der Meta AI im Detail: Ein teurer Fehler

Gaudreau schilderte, dass er eine Frau am anderen Ende der Leitung seine Facebook-Daten übergab, woraufhin sie sein Konto öffnete und ihn vor einem angeblichen Hackerangriff warnte. Sie forderte ihn auf, eine App herunterzuladen, um den vermeintlichen Hacker zu entfernen. Während des Gesprächs wurde jedoch sein PayPal-Konto missbraucht.

Seine Frau bemerkte als Erste den Betrug und forderte ihn auf, das Gespräch zu beenden. Danach sperrte Gaudreau seine Kreditkarten und Bankkonten, reichte Betrugsmeldungen bei PayPal und Visa ein und kontaktierte die Kreditbüros Equifax und TransUnion. Zum Glück erstattete PayPal den Betrag.

Lesen Sie auch >   Die perfide pro-russische Desinformationskampagne „Doppelgänger“

KI-Tools: Gefährliche Helfer in der digitalen Welt

Gaudreaus Geschichte zeigt, wie gefährlich es ist, sich blind auf KI zu verlassen. Professor David Gerhard von der Universität Manitoba warnt:

„Man sollte KI auf keinen Fall vertrauen. Es ist ein sehr mächtiges Werkzeug, das Fehler macht.“ KI-Modelle wie das von Meta verwendete Llama 3 verstehen nicht, was Wahrheit ist. Sie geben oft falsche Antworten, anstatt zuzugeben, dass sie etwas nicht wissen. Llama und andere große Sprachmodelle sind auf das gesamte Internet trainiert, das viele falsche Informationen enthält. Daher sei es problematisch, solche Modelle zur Faktenüberprüfung zu nutzen. Gaudreaus Fall zeigt die Schwächen dieser Technologien deutlich auf.“

Die Ohnmacht gegenüber den Tech-Giganten

Gaudreau versuchte, Meta über den Vorfall zu informieren, erhielt jedoch keine Rückmeldung. „Es scheint, als würden sie mit Straffreiheit handeln“, sagt er. Ein Sprecher von Meta erklärte auf Anfrage, dass „Meta AI manchmal ungenaue Informationen liefern kann“ und das Unternehmen kontinuierlich daran arbeite, dies zu verbessern. Trotz ihrer Bemühungen nutzen Betrüger weiterhin jede Plattform, um Menschen zu täuschen.

Fazit: Vorsicht vor der digitalen Zukunft

Gaudreaus Fall ist ein alarmierendes Beispiel für die Gefahren, die entstehen, wenn man sich blind auf KI verlässt. Es zeigt auch die mangelnde Verantwortung großer Tech-Unternehmen im Umgang mit solchen Betrugsfällen. Während die Technologie weiter voranschreitet, müssen Benutzer wachsam bleiben und lernen, digitale Informationen kritisch zu hinterfragen. Die Konsequenzen, wenn man dies nicht tut, können verheerend sein.

Quelle: CBC News

Lesen Sie auch:

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)