GPT-4 & Co: Warum dich die glorifizierte KI so gerne anlügt

Sprachmodelle wie ChatGPT erfinden oft Dinge und klingen dabei höchst überzeugend. Dieses Problem ist schwer zu beheben.

Autor: Walter Feichtinger

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

In den letzten Jahren hat die künstliche Intelligenz (KI) enorme Fortschritte gemacht und ist in vielen Bereichen unseres täglichen Lebens zu einem wichtigen Werkzeug geworden. Die Möglichkeiten, die KI bietet, sind beeindruckend und reichen von der Automatisierung von Prozessen bis hin zu personalisierten Empfehlungen.

Grenzen der heutigen Algorithmen

Trotzdem hat KI auch ihre Grenzen, und eine dieser Grenzen ist die Tatsache, dass Sprachmodelle wie ChatGPT dazu neigen, Dinge zu erfinden, die nicht stimmen. Diese Halluzinationen oder Fiktionen klingen oft sehr überzeugend und sind schwer zu beheben. Wie Aljoscha Burchardt vom Zentrum für künstliche Intelligenz in Berlin dem Tagesanzeiger erklärt, antwortet ChatGPT manchmal wie ein „altkluges Kind“, das auf Fragen souverän und überzeugend antwortet, aber oft unrichtige Fakten behauptet.

Die Funktionsweise von Sprachmodellen beruht darauf, dass sie die Vernetzung zwischen Neuronen im menschlichen Gehirn nachahmen. Dank immer billigerer Rechenleistung können die künstlichen neuronalen Netze immer größer werden und mit immer mehr Daten trainiert werden. Das führt dazu, dass sie subtile Muster in den Daten erkennen können, aber es bedeutet auch, dass sie kein konsistentes Weltwissen erlernen. Wie Jonas Andrulis, Chef der Heidelberger Firma Aleph Alpha, ausdrückt, kennt ChatGPT das Konzept der Wahrheit nicht und halluziniert oft.

Sprachmodelle wie ChatGPT können nur Wortfolgen statistisch modellieren und berechnen, welches Wort am wahrscheinlichsten als Nächstes folgt. Wie faktentreu ihre Texte sind, hängt davon ab, wie häufig die Wortfolge in den Trainingsdaten vorkommt. ChatGPT zeichnet sich dadurch aus, dass es beim Raten des nächsten Worts besonders viel vorausgehenden Text berücksichtigt, was seine Texte in sich stimmig und menschlich wirken lässt.

Die KI ist unerfahren im Assoziieren und „halluziniert“

Menschen haben die Neigung, Dinge hinzuzufügen, wenn sie Texte verfassen. Diese zusätzlichen Informationen beruhen auf Hintergrundwissen, das vielleicht gar nicht gefragt war, aber den Text insgesamt aufwertet. Beim Training mit menschlichen Texten erlernen Sprachmodelle die menschliche Neigung, über den gegebenen Kontext hinauszugehen, was zu „Halluzinationen“ der KI führen kann.

Trotz der Fortschritte in der Technologie in den letzten Jahren haben Sprachmodelle aber immer noch ihre Grenzen und können nicht die Werte und das Urteilsvermögen von Menschen ersetzen. Es ist wichtig, sich dessen bewusst zu sein und die Risiken und Herausforderungen, die mit dem Einsatz von KI verbunden sind, zu verstehen.

Wo geht die Reise hin?

Es gibt jedoch auch positive Entwicklungen im Bereich der KI-Forschung, die darauf abzielen, die Technologie sicherer und vertrauenswürdiger zu gestalten. Eine Möglichkeit besteht darin, KI so zu programmieren, dass die Abläufe innerhalb des Algorithmus transparent und erklärbar werden. Was bedeutet, dass die Benutzer verstehen können, wie ein KI-System zu seinen Entscheidungen kommt.

Eine andere Möglichkeit besteht darin, KI-Systeme dahingehend zu trainieren, dass ihnen menschenähnliche Wertevorstellungen und Ethik eingeimpft wird. Nur wenn man KI-Systeme mit Annäherungen an Werte und Überzeugungen der menschlichen Gesellschaften ausstattet, kann man voraussetzen, dass sie auch im Einklang mit den menschlichen Werten und Normen arbeiten. Tugenden wie: keine falschen Aussagen machen und lieber zugeben, dass man etwas nicht beantworten kann.

Es gibt noch immer viel zu tun, um die KI sicherer und effektiver zu machen. Daher ist es wichtig, dass wir uns dieser Herausforderung stellen und uns für eine verantwortungsbewusste Nutzung von KI einsetzen. Nur so können wir die Vorteile nutzen, die die Technologie bietet, und gleichzeitig die potenziellen Risiken minimieren. Wenn die Werkzeuge wirklich auf die Bedürfnisse und Anforderungen der Gesellschaft zugeschnitten sind, können wir sicher sein, dass die KI-Technologie den Menschen und der Umwelt zugutekommt.

Quellen: Tagesanzeiger
Bilder: Lexica (CC0)

Mehr zu Künstlicher Intelligenz:
Midjourney: Bilder-KI aktuell nicht mehr gratis nutzbar
Experten fordern einen vorübergehenden Stopp der großen KI Systeme
ChatGPT nimmt Amerikanern die Arbeit ab
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.