ChatGPT und die Gerichtsphantasien: Ein Anwalt, eine KI und eine unvergessliche Gerichtsfarce

Es ist eine Geschichte, die fast schon in den Bereich des Absurden fällt!

Autor: Tom Wannenmacher

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Ein Anwalt wandte sich an ChatGPT, um Unterstützung für seine Fallrecherche zu erhalten. Doch was folgte, war ein peinlicher Fauxpas. Wie gefährlich es sein kann, sich vollständig auf die Unterstützung durch künstliche Intelligenz (KI) zu verlassen, zeigt dieser Gerichtsfall deutlich.

Die Geschichte begann mit einem gewöhnlichen Fall in den USA: Ein Mann wurde auf einem Flug von einem Servierwagen gerammt und entschied sich, die Fluggesellschaft auf Schmerzensgeld zu verklagen. Die Dinge nahmen jedoch eine seltsame Wendung, als die Anwälte der Fluggesellschaft einen Brief erhielten. Dieser Brief enthielt mehrere ähnliche Fälle – doch bei der Nachforschung fanden sie keinerlei Informationen zu diesen Fällen.

Der Vertreter des Mannes, ein Anwalt, stellte sogar Auszüge aus den angeblichen Fällen zur Verfügung

Wie sich herausstellte, waren diese jedoch das Produkt der Fantasie von ChatGPT, der Künstlichen Intelligenz, die er zur Unterstützung herangezogen hatte.

Als die Anwälte der Fluggesellschaft immer noch nichts zu den gemeldeten Fällen fanden, begannen sie zu vermuten, dass der Inhalt von einer KI wie ChatGPT stammen könnte.

Schließlich kam die bittere Wahrheit vor Gericht ans Licht

Der Anwalt des Mannes hatte sich tatsächlich auf ChatGPT verlassen – eine Entscheidung, die er im Nachhinein bereute. Er hatte dem Programm vertraut und geglaubt, dass die Fälle, die es auflistete, echt seien, und deshalb seine eigenen Nachforschungen vernachlässigt.

ChatGPT zeigte ein Phänomen, das als „Halluzination“ bezeichnet wird.

„Halluzination“ ist ein häufig verwendeter Begriff im Zusammenhang mit maschinellem Lernen und künstlicher Intelligenz. Im Zusammenhang mit Sprachmodellen wie GPT-3 und GPT-4 bezieht sich eine „Halluzination“ auf Situationen, in denen das Modell Informationen generiert, die nicht auf den bereitgestellten Eingabedaten basieren und nicht der Realität entsprechen. Dies kann z. B. der Fall sein, wenn das Modell Details oder Ereignisse hinzufügt, die in den Daten, mit denen es trainiert wurde, nicht vorhanden sind. Diese Halluzinationen sind nicht auf das Bewusstsein oder die Intention des Modells zurückzuführen, da das Modell kein Bewusstsein und keine Intention besitzt. Sie entstehen einfach durch die Art und Weise, wie das Modell Muster in den Daten lernt und diese Muster auf neue Eingaben anwendet.

Obwohl das Ergebnis für die KI korrekt erscheint, führt es zu Problemen, insbesondere bei sehr speziellen Themen wie Fluggastrechten. Es ist daher klar, dass Programme wie ChatGPT, zumindest derzeit, einen echten Anwalt nicht ersetzen!

Hier geht es zur eidesstattlichen Erklärung des Anwaltes


Quellen: New York Times , BCC

Passend zum Thema

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.