Die von der Künstlichen Intelligenz (KI) ChatGPT erstellten Texte sind aktuell noch höchst fehleranfällig, wie eine Studie der University of Southern California unter der Leitung von Mayank Kejriwal und der Ingenieurstudentin Zhisheng Tang zeigt. Sie haben ChatGPT und andere KI-basierte Systeme auf ihre Fähigkeit überprüft, rational zu arbeiten.

Riesige Datensätze als Basis

ChatGPT stützt sich bei seiner Formulierung von Texten auf bereits vorhandene Basiskomponenten. Es „lernt“ aus riesigen Datensätzen, die über das Internet verteilt sind, und liefert das, was statistisch gesehen am wahrscheinlichsten richtig ist. „Trotz ihrer beeindruckenden Fähigkeiten denken große Sprachmodelle nicht wirklich. Sie neigen dazu, elementare Fehler zu machen und sogar Dinge zu erfinden. Da sie jedoch eine fließende Sprache erzeugen, neigen die Menschen dazu zu glauben, dass sie denken können“, sagt Kejriwal.

Dies, so Kejriwal und Tang, habe sie veranlasst, die vermeintlich kognitiven Fähigkeiten der Modelle zu untersuchen – eine Arbeit, die jetzt an Bedeutung gewonnen habe, da solche Textschöpfungsmodelle allgemein zugänglich sind. Sie haben Computer-Rationalität als die Fähigkeit definiert, sich bei verschiedenen Lösungsmöglichkeiten für jene zu entscheiden, die der Wahrheit am nächsten kommt oder sie punktgenau zu treffen. Bei ChatGPT haben die Wissenschaftler diese Rationalität eigenen Angaben nach in vielen Fällen nicht gefunden.

Unschuldiger Professor am Pranger

Besonders krass ist ein Fall, den die „Washington Post“ aufgedeckt hat. Im Rahmen einer Forschungsstudie hatte ein Anwalt in Kalifornien ChatGPT gebeten, eine Liste von Rechtswissenschaftlern zu erstellen, die jemanden sexuell belästigt hatten. Auf der Liste erschien auch der Name des Juraprofessors Jonathan Turley. Er habe sexuell anzügliche Kommentare abgegeben und versucht, einen Schüler während einer Klassenfahrt nach Alaska zu unsittlich berühren. Die KI „zitierte“ einen Artikel vom März 2018 in der Washington Post als Quelle. Doch einen solchen Artikel gibt es nicht. Auch die angesprochene Klassenfahrt hat nie stattgefunden. Woher ChatGPT die Info bezogen hat, konnte nicht rekonstruiert werden.

„Es ist eine sehr spezifische Kombination von Fakten und Unwahrheiten, die diese Systeme ziemlich gefährlich machen“, sagt Kate Crawford, Professorin an der University of Southern California, die selbst betroffen ist. Sie sei kürzlich von einem Journalisten kontaktiert worden, der ChatGPT verwendete, um Quellen für eine Geschichte zu recherchieren. Der Bot schlug Crawford vor und bot Beispiele für ihre relevante Arbeit an, darunter einen Artikeltitel, ein Veröffentlichungsdatum und Zitate. Alles klang plausibel – und alles war gefälscht.

Quelle: pte


Passend zum Thema:
ChatGPT-FAQ: Die wichtigsten Fragen und Antworten
Missbrauch von ChatGPT: KI-Modell zur Erstellung von Schadsoftware eingesetzt
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen
GPT-4 & Co: Warum dich die glorifizierte KI so gerne anlügt
Betrug mit ChatGPT-Fake: Sensible Daten sind im Spiel



Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)