In den letzten Jahren hat die künstliche Intelligenz (KI) enorme Fortschritte gemacht und ist in vielen Bereichen unseres täglichen Lebens zu einem wichtigen Werkzeug geworden. Die Möglichkeiten, die KI bietet, sind beeindruckend und reichen von der Automatisierung von Prozessen bis hin zu personalisierten Empfehlungen.

Grenzen der heutigen Algorithmen

Trotzdem hat KI auch ihre Grenzen, und eine dieser Grenzen ist die Tatsache, dass Sprachmodelle wie ChatGPT dazu neigen, Dinge zu erfinden, die nicht stimmen. Diese Halluzinationen oder Fiktionen klingen oft sehr überzeugend und sind schwer zu beheben. Wie Aljoscha Burchardt vom Zentrum für künstliche Intelligenz in Berlin dem Tagesanzeiger erklärt, antwortet ChatGPT manchmal wie ein „altkluges Kind“, das auf Fragen souverän und überzeugend antwortet, aber oft unrichtige Fakten behauptet.

Die Funktionsweise von Sprachmodellen beruht darauf, dass sie die Vernetzung zwischen Neuronen im menschlichen Gehirn nachahmen. Dank immer billigerer Rechenleistung können die künstlichen neuronalen Netze immer größer werden und mit immer mehr Daten trainiert werden. Das führt dazu, dass sie subtile Muster in den Daten erkennen können, aber es bedeutet auch, dass sie kein konsistentes Weltwissen erlernen. Wie Jonas Andrulis, Chef der Heidelberger Firma Aleph Alpha, ausdrückt, kennt ChatGPT das Konzept der Wahrheit nicht und halluziniert oft.

Sprachmodelle wie ChatGPT können nur Wortfolgen statistisch modellieren und berechnen, welches Wort am wahrscheinlichsten als Nächstes folgt. Wie faktentreu ihre Texte sind, hängt davon ab, wie häufig die Wortfolge in den Trainingsdaten vorkommt. ChatGPT zeichnet sich dadurch aus, dass es beim Raten des nächsten Worts besonders viel vorausgehenden Text berücksichtigt, was seine Texte in sich stimmig und menschlich wirken lässt.

Die KI ist unerfahren im Assoziieren und „halluziniert“

Menschen haben die Neigung, Dinge hinzuzufügen, wenn sie Texte verfassen. Diese zusätzlichen Informationen beruhen auf Hintergrundwissen, das vielleicht gar nicht gefragt war, aber den Text insgesamt aufwertet. Beim Training mit menschlichen Texten erlernen Sprachmodelle die menschliche Neigung, über den gegebenen Kontext hinauszugehen, was zu „Halluzinationen“ der KI führen kann.

Trotz der Fortschritte in der Technologie in den letzten Jahren haben Sprachmodelle aber immer noch ihre Grenzen und können nicht die Werte und das Urteilsvermögen von Menschen ersetzen. Es ist wichtig, sich dessen bewusst zu sein und die Risiken und Herausforderungen, die mit dem Einsatz von KI verbunden sind, zu verstehen.

Wo geht die Reise hin?

Es gibt jedoch auch positive Entwicklungen im Bereich der KI-Forschung, die darauf abzielen, die Technologie sicherer und vertrauenswürdiger zu gestalten. Eine Möglichkeit besteht darin, KI so zu programmieren, dass die Abläufe innerhalb des Algorithmus transparent und erklärbar werden. Was bedeutet, dass die Benutzer verstehen können, wie ein KI-System zu seinen Entscheidungen kommt.

Eine andere Möglichkeit besteht darin, KI-Systeme dahingehend zu trainieren, dass ihnen menschenähnliche Wertevorstellungen und Ethik eingeimpft wird. Nur wenn man KI-Systeme mit Annäherungen an Werte und Überzeugungen der menschlichen Gesellschaften ausstattet, kann man voraussetzen, dass sie auch im Einklang mit den menschlichen Werten und Normen arbeiten. Tugenden wie: keine falschen Aussagen machen und lieber zugeben, dass man etwas nicht beantworten kann.

Es gibt noch immer viel zu tun, um die KI sicherer und effektiver zu machen. Daher ist es wichtig, dass wir uns dieser Herausforderung stellen und uns für eine verantwortungsbewusste Nutzung von KI einsetzen. Nur so können wir die Vorteile nutzen, die die Technologie bietet, und gleichzeitig die potenziellen Risiken minimieren. Wenn die Werkzeuge wirklich auf die Bedürfnisse und Anforderungen der Gesellschaft zugeschnitten sind, können wir sicher sein, dass die KI-Technologie den Menschen und der Umwelt zugutekommt.

Quellen: Tagesanzeiger
Bilder: Lexica (CC0)

Mehr zu Künstlicher Intelligenz:
Midjourney: Bilder-KI aktuell nicht mehr gratis nutzbar
Experten fordern einen vorübergehenden Stopp der großen KI Systeme
ChatGPT nimmt Amerikanern die Arbeit ab

Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Wenn dir unsere Arbeit gefällt und du findest, dass sie dir weiterhilft, ist es dir vielleicht 4,50 EUR im Monat wert, uns zu unterstützen? Mit einem kleinen Beitrag kannst du dazu beitragen, dass wir weiterhin Fehlinformationen entgegenwirken und die Öffentlichkeit aufklären.

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)