ChatGPT: Die Illusion einer Denkleistung

Zwei Professoren haben die ChatGPT auf Herz und Nieren getestet. Nach Einschätzung der beiden Digitalisierungsexperten stellt die Imitation menschlicher Denkleistung Hochschulen und Gesellschaft zukünftig vor große Herausforderungen.

Autor: Ralf Nowotny

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Seit das Unternehmen OpenAI den Chatbot ChatGPT veröffentlicht hat, haben sich bereits eine Million Nutzer mit dem Chatbot unterhalten. Auch die ISM-Professoren Dr. Veith Tiemann für Data Science & Analytics sowie Dr. Johannes Moskaliuk für Wirtschaftspsychologie und Online Learning haben die KI bereits auf Herz und Nieren getestet. Nach Einschätzung der beiden Digitalisierungsexperten stellt die Imitation menschlicher Denkleistung Hochschulen und Gesellschaft zukünftig vor große Herausforderungen.

Der Chatbot ChatGPT sorgt für viel Diskussionsstoff. Über eine Million Nutzer haben seit dem Launch im Dezember bereits mit der KI „kommuniziert“. Die verblüfften Reaktionen auf Social Media reichen dabei von großer Begeisterung, über Risikoabwägungen bis hin zu reißerischen Warnungen vor der bevorstehenden Apokalypse.

ChatGPT ist ein Sprachmodell – kein Wissensmodell

Aus Sicht von Professor Dr. Johannes Moskaliuk sind die zuweilen heftigen Reaktionen der Nutzer zwar verständlich, aber wenig hilfreich, wenn es um eine nüchterne Beurteilung von ChatGPT geht. Digitalisierungsexperte Moskaliuk differenziert, dass es sich hier aktuell noch um ein Sprachmodell, und nicht etwa um ein Wissensmodell handelt.

Diese Unterscheidung sei essenziell, wenn es um die Bewertung der neuen Technologie geht: „Grundlage für ChatGPT ist ein künstliches neuronales Netz, das versucht, menschliche Sprache in einem statistischen Modell abzubilden. Mit diesem Modell wird beschrieben, welche Sätze, Antworten und Aussagen in einem bestimmten Kontext passend sind.

Dazu wird das Modell mit bestehenden Inhalten trainiert, im Falle von GPT sind das Milliarden von Wörtern, die auf Webseiten im Netz veröffentlicht sind.“ Die neue Technik versucht demnach, menschliche Kommunikation zu imitieren, ohne eigene kreative Denkleistung, betont Moskaliuk: „Die KI „versteht“ nicht, um was es geht, sondern berechnet, welche Antwort passend sein könnte – mit hoher Treffsicherheit.“

ChatGPT imitiert Sprache nach statistischen Berechnungen

Ein Blick auf Google sei dabei hilfreich, um die Weiterentwicklung von ChatGPT aufzuzeigen, erklärt ISM-Professor Dr. Veith Tiemann für Data Science und Business Analytics. Im Gegensatz zu Google zeigt ChatGPT nicht mehr die Links bzw. Textquellen zu einer Stichwortsuche an, sondern erstellt auf Basis eines künstlichen neuronalen Netzes selbst eine präzise erscheinende Antwort.

Diese wird aufgrund statistischer Zusammenhänge und Wahrscheinlichkeiten berechnet. Da die menschliche Sprache aber auch von Feinheiten und Zwischentönen lebt, können dabei auch merkwürdige Ergebnisse bis hin zu Fake News entstehen: „Der Chatbot ist also nur so präzise und korrekt, wie die Textinhalte, mit welchen er gefüttert wurde“, so der Statistik-Experte Tiemann.

Illusion von einer Denkleistung ist die eigentliche Herausforderung von ChatGPT

„Die Tatsache, dass die Unterscheidung zwischen ausgefeilter Sprachimitation und eigenständigem Denken kaum mehr für die menschlichen User*innen transparent ist, erscheint dabei als die eigentliche Herausforderung im Umgang mit der neuen KI-Generation“, erläutert Tiemann. Aus diesem Grund sei auch eine disziplinübergreifende fachliche und gesellschaftliche Diskussion notwendig, wie ISM-Kollege und Wirtschaftspsychologe Johannes Moskaliuk fordert:

„Psychologische, soziale, ethische und juristische Aspekte machen eine interdisziplinäre Sicht auf die anstehenden Veränderungen notwendig. Durch die neuen KI-Leistungen müssen wir Fragen lösen wie diese: Wer ist verantwortlich für eine KI, die diskriminierende Aussagen macht – und damit nur das wiedergibt, was das System auf Basis von Trainingsdaten kombiniert hat? Wer übernimmt die Verantwortung für Behandlungsfehler, die auf Basis einer Empfehlung durch eine KI zustande kamen? Wer hat die Rechte an einem Gedicht, das von einer KI geschrieben wurde?“

Die Hochschulen sind in Zukunft also nicht nur gefordert, ihre Prüfungsnachweise zu überdenken, sondern müssen sich auch interdisziplinär mit den Auswirkungen der neuen KI-Systeme wissenschaftlich auseinandersetzen.

Hintergrund:
Die International School of Management (ISM) ist eine staatlich anerkannte, private Hochschule in gemeinnütziger Trägerschaft und zählt zu den führenden privaten Hochschulen in Deutschland. An Standorten in Dortmund, Frankfurt/Main, München, Hamburg, Köln, Stuttgart und Berlin wird in kompakten und anwendungsbezogenen Studiengängen der Führungsnachwuchs für international orientierte Wirtschaftsunternehmen ausgebildet. Zum Studienangebot gehören Vollzeit-Programme, berufsbegleitende und duale Studiengänge sowie das komplett digitale Fernstudium. In Hochschulrankings schafft es die ISM mit hoher Lehrqualität, Internationalität und Praxisbezug regelmäßig auf die vordersten Plätze. Das internationale Netzwerk umfasst rund 190 Partnerhochschulen.

Artikelbild: Pixabay

Quelle:

PT
Auch interessant: Die angezeigten Ergebnisse der künstlichen Intelligenzen wie Chat GPT seien oft unzuverlässig und Quellenangaben häufig falsch.
Chat GPT: Forscher warnen vor Text-KIs
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.