GPT-4 & Co: Warum dich die glorifizierte KI so gerne anlügt

Sprachmodelle wie ChatGPT erfinden oft Dinge und klingen dabei höchst überzeugend. Dieses Problem ist schwer zu beheben.

Autor: Walter Feichtinger

Dein Beitrag hilft Mimikama beim Faktencheck: Unterstütze uns via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe zählt, um Fakten zu klären und Verlässlichkeit zu sichern. Unterstütze jetzt und mach den Unterschied! ❤️ Danke

In den letzten Jahren hat die künstliche Intelligenz (KI) enorme Fortschritte gemacht und ist in vielen Bereichen unseres täglichen Lebens zu einem wichtigen Werkzeug geworden. Die Möglichkeiten, die KI bietet, sind beeindruckend und reichen von der Automatisierung von Prozessen bis hin zu personalisierten Empfehlungen.

Grenzen der heutigen Algorithmen

Trotzdem hat KI auch ihre Grenzen, und eine dieser Grenzen ist die Tatsache, dass Sprachmodelle wie ChatGPT dazu neigen, Dinge zu erfinden, die nicht stimmen. Diese Halluzinationen oder Fiktionen klingen oft sehr überzeugend und sind schwer zu beheben. Wie Aljoscha Burchardt vom Zentrum für künstliche Intelligenz in Berlin dem Tagesanzeiger erklärt, antwortet ChatGPT manchmal wie ein „altkluges Kind“, das auf Fragen souverän und überzeugend antwortet, aber oft unrichtige Fakten behauptet.

Die Funktionsweise von Sprachmodellen beruht darauf, dass sie die Vernetzung zwischen Neuronen im menschlichen Gehirn nachahmen. Dank immer billigerer Rechenleistung können die künstlichen neuronalen Netze immer größer werden und mit immer mehr Daten trainiert werden. Das führt dazu, dass sie subtile Muster in den Daten erkennen können, aber es bedeutet auch, dass sie kein konsistentes Weltwissen erlernen. Wie Jonas Andrulis, Chef der Heidelberger Firma Aleph Alpha, ausdrückt, kennt ChatGPT das Konzept der Wahrheit nicht und halluziniert oft.

Sprachmodelle wie ChatGPT können nur Wortfolgen statistisch modellieren und berechnen, welches Wort am wahrscheinlichsten als Nächstes folgt. Wie faktentreu ihre Texte sind, hängt davon ab, wie häufig die Wortfolge in den Trainingsdaten vorkommt. ChatGPT zeichnet sich dadurch aus, dass es beim Raten des nächsten Worts besonders viel vorausgehenden Text berücksichtigt, was seine Texte in sich stimmig und menschlich wirken lässt.

Die KI ist unerfahren im Assoziieren und „halluziniert“

Menschen haben die Neigung, Dinge hinzuzufügen, wenn sie Texte verfassen. Diese zusätzlichen Informationen beruhen auf Hintergrundwissen, das vielleicht gar nicht gefragt war, aber den Text insgesamt aufwertet. Beim Training mit menschlichen Texten erlernen Sprachmodelle die menschliche Neigung, über den gegebenen Kontext hinauszugehen, was zu „Halluzinationen“ der KI führen kann.

Trotz der Fortschritte in der Technologie in den letzten Jahren haben Sprachmodelle aber immer noch ihre Grenzen und können nicht die Werte und das Urteilsvermögen von Menschen ersetzen. Es ist wichtig, sich dessen bewusst zu sein und die Risiken und Herausforderungen, die mit dem Einsatz von KI verbunden sind, zu verstehen.

Wo geht die Reise hin?

Es gibt jedoch auch positive Entwicklungen im Bereich der KI-Forschung, die darauf abzielen, die Technologie sicherer und vertrauenswürdiger zu gestalten. Eine Möglichkeit besteht darin, KI so zu programmieren, dass die Abläufe innerhalb des Algorithmus transparent und erklärbar werden. Was bedeutet, dass die Benutzer verstehen können, wie ein KI-System zu seinen Entscheidungen kommt.

Eine andere Möglichkeit besteht darin, KI-Systeme dahingehend zu trainieren, dass ihnen menschenähnliche Wertevorstellungen und Ethik eingeimpft wird. Nur wenn man KI-Systeme mit Annäherungen an Werte und Überzeugungen der menschlichen Gesellschaften ausstattet, kann man voraussetzen, dass sie auch im Einklang mit den menschlichen Werten und Normen arbeiten. Tugenden wie: keine falschen Aussagen machen und lieber zugeben, dass man etwas nicht beantworten kann.

Es gibt noch immer viel zu tun, um die KI sicherer und effektiver zu machen. Daher ist es wichtig, dass wir uns dieser Herausforderung stellen und uns für eine verantwortungsbewusste Nutzung von KI einsetzen. Nur so können wir die Vorteile nutzen, die die Technologie bietet, und gleichzeitig die potenziellen Risiken minimieren. Wenn die Werkzeuge wirklich auf die Bedürfnisse und Anforderungen der Gesellschaft zugeschnitten sind, können wir sicher sein, dass die KI-Technologie den Menschen und der Umwelt zugutekommt.

Quellen: Tagesanzeiger
Bilder: Lexica (CC0)

Mehr zu Künstlicher Intelligenz:
Midjourney: Bilder-KI aktuell nicht mehr gratis nutzbar
Experten fordern einen vorübergehenden Stopp der großen KI Systeme
ChatGPT nimmt Amerikanern die Arbeit ab

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Sind Sie besorgt über Falschinformationen im Internet? Mimikama setzt sich für ein faktenbasiertes und sicheres Internet ein. Ihre Unterstützung ermöglicht es uns, weiterhin Qualität und Echtheit im Netz zu gewährleisten. Bitte unterstützen Sie und helfen Sie uns, ein vertrauenswürdiges digitales Umfeld zu schaffen. Ihre Unterstützung zählt! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.

Mehr von Mimikama