ChatGPT: Fake News zu Krebstherapien

Die scheinbare Kompetenz von KI in der medizinischen Beratung kann zu gefährlichen Fehlinformationen führen, wie Forscher herausgefunden haben.

Autor: Susanne Breuer

Lieber Leser, liebe Leserin, Mimikama ist dein Kompass in der Informationsflut. Aber um den Kurs zu halten, brauchen wir dich. Jeder Beitrag, ob groß oder klein, bringt uns näher an eine Welt der verlässlichen Informationen. Stell dir vor, du könntest einen Unterschied machen, und das kannst du! Unterstütze uns jetzt via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe lässt uns weiterhin Fakten liefern, auf die du zählen kannst. Mach mit uns den ersten Schritt in eine vertrauenswürdigere Informationszukunft. ❤️ Dank dir kann es sein.

Künstliche Intelligenz (KI) hat Einzug in fast alle Bereiche unseres Lebens gehalten, und es ist verlockend, diese Technologie auch im medizinischen Bereich einzusetzen. Doch eine aktuelle Studie, durchgeführt am Brigham and Women’s Hospital der Harvard Medical School, hat alarmierende Ergebnisse zutage gefördert. Die intelligente Recherche- und Texterstellungs-Software ChatGPT von OpenAI, die für ihre Fähigkeiten im Umgang mit Texten bekannt ist, erweist sich als riskanter Ratgeber bei Krebstherapien. Die Forscher entdeckten, dass der Chatbot nicht nur fachkundige Ratschläge lieferte, sondern auch gefährliche Fehlinformationen streute, die potenziell das Vertrauen zwischen Patienten und Ärzten untergraben könnten.

Gefährliche ChatGPT-Ratschläge trotz vermeintlicher Expertise

Die Studie ergab, dass von den 104 von ChatGPT erstellten Krebsbehandlungsplänen ganze 98 Prozent neben korrekten Empfehlungen auch mindestens eine Behandlungsempfehlung enthielten, die den renommierten Richtlinien des National Comprehensive Cancer Network (NCCN) entsprachen. Allerdings offenbarten sich in 34 Prozent der Pläne Empfehlungen, die nicht im Einklang mit den NCCN-Richtlinien standen. Diese Diskrepanzen zeigen die herausfordernde Aufgabe, die Entwicklung von Krebsbehandlungsplänen zu sein scheint, und weisen auf die begrenzten Fähigkeiten von ChatGPT hin.

Nur in 62 Prozent der Fälle stimmten die von ChatGPT erstellten Pläne vollständig mit den NCCN-Richtlinien überein. Die Komplexität dieser Richtlinien und die begrenzte Bandbreite der ChatGPT-Funktionen wurden als Hauptgründe für diese Diskrepanzen genannt. Besonders besorgniserregend war, dass in 12,5 Prozent der Fälle der Chatbot Empfehlungen aussprach, die völlig im Widerspruch zu den NCCN-Richtlinien standen. Diese Fehlinformationen schüren falsche Hoffnungen auf wirksame Therapien, sogar für unheilbare Krebsarten.

Die Menschlichkeit der Täuschung

Was diese Ergebnisse noch beunruhigender macht, ist die Tatsache, dass die Antworten von ChatGPT menschenähnlich klingen und somit überzeugend wirken können, auch wenn sie falsch oder gefährlich sind. Onkologin Danielle Bitterman betont, wie leicht Patienten und sogar Ärzte aufgrund der überzeugenden Formulierungen auf die Fehlinformationen hereinfallen könnten. Dies birgt nicht nur das Potenzial, falsche Hoffnungen zu wecken, sondern könnte auch das Verhältnis zwischen Patienten und Ärzten belasten.

Die Rolle von KI im Gesundheitswesen

Trotz dieser beunruhigenden Ergebnisse besteht ein wachsendes Interesse daran, KI im Gesundheitswesen einzusetzen, insbesondere zur Rationalisierung administrativer Aufgaben. Eine aktuelle Studie deutet darauf hin, dass KI bald zur Früherkennung von Brustkrebs eingesetzt werden könnte, um die Arbeitsbelastung von Radiologen erheblich zu reduzieren. Jedoch ist es wichtig zu betonen, dass KI-Systeme wie ChatGPT lediglich Hinweise liefern sollten, die von erfahrenen Ärzten überprüft werden müssen. Sie können als wertvolle Unterstützung dienen, aber nicht als Ersatz für medizinisches Fachwissen.

Fazit

Die verlockende Vorstellung, dass Künstliche Intelligenz die Komplexität medizinischer Entscheidungen übernehmen kann, wird durch die Ergebnisse der Studie am Brigham and Women’s Hospital der Harvard Medical School deutlich gedämpft. Die scheinbare Kompetenz von ChatGPT in der Krebsberatung enthält gefährliche Fallstricke, die falsche Hoffnungen wecken und das Vertrauen zwischen Patienten und Ärzten gefährden könnten. Während KI zweifellos eine vielversprechende Rolle im Gesundheitswesen spielen kann, ist es unerlässlich, ihre Grenzen zu verstehen und die ultimative Verantwortung in den Händen erfahrener medizinischer Fachkräfte zu belassen.

Quelle:

Jama Network
Schon gelesen? Ein plötzlicher Abschied von Horst Lichter, Barbara Schöneberger und Oliver Pocher? Facebook wird aktuell von irreführenden Fake-Werbeanzeigen überflutet, die genau das suggerieren. Mimikama klärt auf: Horst Lichter, Barbara Schöneberg und Oliver Pocher sind nicht verstorben!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Ihnen liegt es am Herzen, das Internet zu einem Ort der Wahrheit und Sicherheit zu machen? Fühlen Sie sich überwältigt von der Flut an Fehlinformationen? Mimikama steht für Vertrauen und Integrität im digitalen Raum. Gemeinsam können wir für ein transparentes und sicheres Netz sorgen. Schließen Sie sich uns an und unterstützen Sie Mimikama!. Werde auch Du ein jetzt ein Botschafter von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.

Mehr von Mimikama