Ein Anwalt wandte sich an ChatGPT, um Unterstützung für seine Fallrecherche zu erhalten. Doch was folgte, war ein peinlicher Fauxpas. Wie gefährlich es sein kann, sich vollständig auf die Unterstützung durch künstliche Intelligenz (KI) zu verlassen, zeigt dieser Gerichtsfall deutlich.
Die Geschichte begann mit einem gewöhnlichen Fall in den USA: Ein Mann wurde auf einem Flug von einem Servierwagen gerammt und entschied sich, die Fluggesellschaft auf Schmerzensgeld zu verklagen. Die Dinge nahmen jedoch eine seltsame Wendung, als die Anwälte der Fluggesellschaft einen Brief erhielten. Dieser Brief enthielt mehrere ähnliche Fälle – doch bei der Nachforschung fanden sie keinerlei Informationen zu diesen Fällen.
Der Vertreter des Mannes, ein Anwalt, stellte sogar Auszüge aus den angeblichen Fällen zur Verfügung
Wie sich herausstellte, waren diese jedoch das Produkt der Fantasie von ChatGPT, der Künstlichen Intelligenz, die er zur Unterstützung herangezogen hatte.
Als die Anwälte der Fluggesellschaft immer noch nichts zu den gemeldeten Fällen fanden, begannen sie zu vermuten, dass der Inhalt von einer KI wie ChatGPT stammen könnte.
Schließlich kam die bittere Wahrheit vor Gericht ans Licht
Der Anwalt des Mannes hatte sich tatsächlich auf ChatGPT verlassen – eine Entscheidung, die er im Nachhinein bereute. Er hatte dem Programm vertraut und geglaubt, dass die Fälle, die es auflistete, echt seien, und deshalb seine eigenen Nachforschungen vernachlässigt.
ChatGPT zeigte ein Phänomen, das als „Halluzination“ bezeichnet wird.
„Halluzination“ ist ein häufig verwendeter Begriff im Zusammenhang mit maschinellem Lernen und künstlicher Intelligenz. Im Zusammenhang mit Sprachmodellen wie GPT-3 und GPT-4 bezieht sich eine „Halluzination“ auf Situationen, in denen das Modell Informationen generiert, die nicht auf den bereitgestellten Eingabedaten basieren und nicht der Realität entsprechen. Dies kann z. B. der Fall sein, wenn das Modell Details oder Ereignisse hinzufügt, die in den Daten, mit denen es trainiert wurde, nicht vorhanden sind. Diese Halluzinationen sind nicht auf das Bewusstsein oder die Intention des Modells zurückzuführen, da das Modell kein Bewusstsein und keine Intention besitzt. Sie entstehen einfach durch die Art und Weise, wie das Modell Muster in den Daten lernt und diese Muster auf neue Eingaben anwendet.
Obwohl das Ergebnis für die KI korrekt erscheint, führt es zu Problemen, insbesondere bei sehr speziellen Themen wie Fluggastrechten. Es ist daher klar, dass Programme wie ChatGPT, zumindest derzeit, einen echten Anwalt nicht ersetzen!
Hier geht es zur eidesstattlichen Erklärung des Anwaltes
Quellen: New York Times , BCC
Passend zum Thema
- Fatale Fehler: ChatGPT keineswegs ohne Fehler
- Chat-GPT: Cyberkriminelle setzen auf Chat-GPT
- Leitfaden zum Erkennen gefälschter KI-Personen auf Dating-Websites und in sozialen Medien
- Künstliche Intelligenz steuert Nachrichtenseiten und verbreitet Fake News
- Künstliche Intelligenz im Alltag und in der Kriminalitätsbekämpfung
- ChatGPT-FAQ: Die wichtigsten Fragen und Antworten
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)

