Ein Anwalt wandte sich an ChatGPT, um Unterstützung für seine Fallrecherche zu erhalten. Doch was folgte, war ein peinlicher Fauxpas. Wie gefährlich es sein kann, sich vollständig auf die Unterstützung durch künstliche Intelligenz (KI) zu verlassen, zeigt dieser Gerichtsfall deutlich.

Die Geschichte begann mit einem gewöhnlichen Fall in den USA: Ein Mann wurde auf einem Flug von einem Servierwagen gerammt und entschied sich, die Fluggesellschaft auf Schmerzensgeld zu verklagen. Die Dinge nahmen jedoch eine seltsame Wendung, als die Anwälte der Fluggesellschaft einen Brief erhielten. Dieser Brief enthielt mehrere ähnliche Fälle – doch bei der Nachforschung fanden sie keinerlei Informationen zu diesen Fällen.

Der Vertreter des Mannes, ein Anwalt, stellte sogar Auszüge aus den angeblichen Fällen zur Verfügung

Wie sich herausstellte, waren diese jedoch das Produkt der Fantasie von ChatGPT, der Künstlichen Intelligenz, die er zur Unterstützung herangezogen hatte.

Als die Anwälte der Fluggesellschaft immer noch nichts zu den gemeldeten Fällen fanden, begannen sie zu vermuten, dass der Inhalt von einer KI wie ChatGPT stammen könnte.

Schließlich kam die bittere Wahrheit vor Gericht ans Licht

Der Anwalt des Mannes hatte sich tatsächlich auf ChatGPT verlassen – eine Entscheidung, die er im Nachhinein bereute. Er hatte dem Programm vertraut und geglaubt, dass die Fälle, die es auflistete, echt seien, und deshalb seine eigenen Nachforschungen vernachlässigt.

ChatGPT zeigte ein Phänomen, das als „Halluzination“ bezeichnet wird.

„Halluzination“ ist ein häufig verwendeter Begriff im Zusammenhang mit maschinellem Lernen und künstlicher Intelligenz. Im Zusammenhang mit Sprachmodellen wie GPT-3 und GPT-4 bezieht sich eine „Halluzination“ auf Situationen, in denen das Modell Informationen generiert, die nicht auf den bereitgestellten Eingabedaten basieren und nicht der Realität entsprechen. Dies kann z. B. der Fall sein, wenn das Modell Details oder Ereignisse hinzufügt, die in den Daten, mit denen es trainiert wurde, nicht vorhanden sind. Diese Halluzinationen sind nicht auf das Bewusstsein oder die Intention des Modells zurückzuführen, da das Modell kein Bewusstsein und keine Intention besitzt. Sie entstehen einfach durch die Art und Weise, wie das Modell Muster in den Daten lernt und diese Muster auf neue Eingaben anwendet.

Obwohl das Ergebnis für die KI korrekt erscheint, führt es zu Problemen, insbesondere bei sehr speziellen Themen wie Fluggastrechten. Es ist daher klar, dass Programme wie ChatGPT, zumindest derzeit, einen echten Anwalt nicht ersetzen!

Hier geht es zur eidesstattlichen Erklärung des Anwaltes


Quellen: New York Times , BCC

Passend zum Thema

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)