Künstliche Intelligenz (KI) hat Einzug in fast alle Bereiche unseres Lebens gehalten, und es ist verlockend, diese Technologie auch im medizinischen Bereich einzusetzen. Doch eine aktuelle Studie, durchgeführt am Brigham and Women’s Hospital der Harvard Medical School, hat alarmierende Ergebnisse zutage gefördert. Die intelligente Recherche- und Texterstellungs-Software ChatGPT von OpenAI, die für ihre Fähigkeiten im Umgang mit Texten bekannt ist, erweist sich als riskanter Ratgeber bei Krebstherapien. Die Forscher entdeckten, dass der Chatbot nicht nur fachkundige Ratschläge lieferte, sondern auch gefährliche Fehlinformationen streute, die potenziell das Vertrauen zwischen Patienten und Ärzten untergraben könnten.

Gefährliche ChatGPT-Ratschläge trotz vermeintlicher Expertise

Die Studie ergab, dass von den 104 von ChatGPT erstellten Krebsbehandlungsplänen ganze 98 Prozent neben korrekten Empfehlungen auch mindestens eine Behandlungsempfehlung enthielten, die den renommierten Richtlinien des National Comprehensive Cancer Network (NCCN) entsprachen. Allerdings offenbarten sich in 34 Prozent der Pläne Empfehlungen, die nicht im Einklang mit den NCCN-Richtlinien standen. Diese Diskrepanzen zeigen die herausfordernde Aufgabe, die Entwicklung von Krebsbehandlungsplänen zu sein scheint, und weisen auf die begrenzten Fähigkeiten von ChatGPT hin.

Nur in 62 Prozent der Fälle stimmten die von ChatGPT erstellten Pläne vollständig mit den NCCN-Richtlinien überein. Die Komplexität dieser Richtlinien und die begrenzte Bandbreite der ChatGPT-Funktionen wurden als Hauptgründe für diese Diskrepanzen genannt. Besonders besorgniserregend war, dass in 12,5 Prozent der Fälle der Chatbot Empfehlungen aussprach, die völlig im Widerspruch zu den NCCN-Richtlinien standen. Diese Fehlinformationen schüren falsche Hoffnungen auf wirksame Therapien, sogar für unheilbare Krebsarten.

Die Menschlichkeit der Täuschung

Was diese Ergebnisse noch beunruhigender macht, ist die Tatsache, dass die Antworten von ChatGPT menschenähnlich klingen und somit überzeugend wirken können, auch wenn sie falsch oder gefährlich sind. Onkologin Danielle Bitterman betont, wie leicht Patienten und sogar Ärzte aufgrund der überzeugenden Formulierungen auf die Fehlinformationen hereinfallen könnten. Dies birgt nicht nur das Potenzial, falsche Hoffnungen zu wecken, sondern könnte auch das Verhältnis zwischen Patienten und Ärzten belasten.

Lesen Sie auch >   Falschmeldung: Wolodymyr Selenskyj kauft Casino auf Zypern

Die Rolle von KI im Gesundheitswesen

Trotz dieser beunruhigenden Ergebnisse besteht ein wachsendes Interesse daran, KI im Gesundheitswesen einzusetzen, insbesondere zur Rationalisierung administrativer Aufgaben. Eine aktuelle Studie deutet darauf hin, dass KI bald zur Früherkennung von Brustkrebs eingesetzt werden könnte, um die Arbeitsbelastung von Radiologen erheblich zu reduzieren. Jedoch ist es wichtig zu betonen, dass KI-Systeme wie ChatGPT lediglich Hinweise liefern sollten, die von erfahrenen Ärzten überprüft werden müssen. Sie können als wertvolle Unterstützung dienen, aber nicht als Ersatz für medizinisches Fachwissen.

Fazit

Die verlockende Vorstellung, dass Künstliche Intelligenz die Komplexität medizinischer Entscheidungen übernehmen kann, wird durch die Ergebnisse der Studie am Brigham and Women’s Hospital der Harvard Medical School deutlich gedämpft. Die scheinbare Kompetenz von ChatGPT in der Krebsberatung enthält gefährliche Fallstricke, die falsche Hoffnungen wecken und das Vertrauen zwischen Patienten und Ärzten gefährden könnten. Während KI zweifellos eine vielversprechende Rolle im Gesundheitswesen spielen kann, ist es unerlässlich, ihre Grenzen zu verstehen und die ultimative Verantwortung in den Händen erfahrener medizinischer Fachkräfte zu belassen.

Quelle:

Jama Network
Schon gelesen? Ein plötzlicher Abschied von Horst Lichter, Barbara Schöneberger und Oliver Pocher? Facebook wird aktuell von irreführenden Fake-Werbeanzeigen überflutet, die genau das suggerieren. Mimikama klärt auf: Horst Lichter, Barbara Schöneberg und Oliver Pocher sind nicht verstorben!

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)