ChatGPT erledigt jetzt auch die Buchführung

KI-Software ChatGPT von OpenAI macht in praktischen Tests mit Studenten jedoch deutlich mehr Fehler.

Autor: Claudia Spiess


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


Der jüngste KI-Chatbot „GPT-4“ von OpenAI soll künftig auch die Buchhaltung von Unternehmen übernehmen. Er hat, beteuert OpenAI, die entsprechende Prüfung mit hoher Punktzahl bestanden. Dennoch ist die Software Studenten unterlegen, gegen die ihn die Brigham Young University (BYU) und 186 andere Universitäten antreten ließen.

Studenten deutlich besser

Die Fragen betrafen Rechnungslegungsinformationssysteme (AIS), Wirtschaftsprüfung, Finanzbuchhaltung, Controlling und Steuern. Sie unterschieden sich in Schwierigkeitsgrad und Art (wahr/falsch, Multiple-Choice, Kurzantwort). Die Studenten erzielten einen Gesamtdurchschnitt von 76,7 Prozent, verglichen mit 47,4 Prozent bei ChatGPT. Bei 11,3 Prozent der Fragen schnitt ChatGPT besser ab als der Studentendurchschnitt – besonders gut in den Bereichen AIS und Auditing. Bei Steuer-, Finanz- und Management-Bewertungen schnitt der Bot schlechter ab.

Bei Fragen, die mit richtig oder falsch beantwortet werden mussten, und bei Multiple-Choice-Fragen schnitt der Bot schnitt der Bot besser ab als die Studenten, hatte aber massive Probleme bei Kurzantwortfragen. Im Allgemeinen waren übergeordnete Fragen für ChatGPT schwieriger zu beantworten. Tatsächlich lieferte ChatGPT manchmal maßgebliche schriftliche Beschreibungen für falsche Antworten oder beantwortete dieselbe Frage auf unterschiedliche Weise.

Zusammenphantasierte „Fakten“

„Es ist nicht perfekt; man kann die Software nicht für alles verwenden. Der Versuch, nur mit ChatGPT zu lernen, dürfte scheitern“, sagt Jessica Wood, die ihr Studium an der BYU gerade begonnen hat. ChatGPT phantasiert sich manchmal vermeintliche Fakten zusammen, heißt es.

„Als diese Technologie zum ersten Mal auf den Markt kam, waren alle besorgt, dass die Studenten sie zum Schummeln verwenden könnten“, so der leitende Studienautor David Wood. „Aber Möglichkeiten zu betrügen gab es schon immer. Wir versuchen also, uns auf das zu konzentrieren, was wir jetzt mit dieser Technologie tun können, was wir vorher nicht tun konnten, um den Lehrprozess für die Fakultät und den Lernprozess für die Studenten zu verbessern.“

Quelle:

Presseportal

Das könnte auch interessieren: KI-Tools befeuern Betrugsversuche


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama