Arzt oder Chatbot? Der wahre Grund, warum erschöpfte Patienten sich an KI wenden: Licht und Schatten der medizinischen Beratung durch Chatbots

Arzt oder Chatbot? Der wahre Grund, warum erschöpfte Patienten sich an KI wenden: Licht und Schatten der medizinischen Beratung durch Chatbots

1. „Nicht ins Krankenhaus, sondern zum Chatbot“

Der Titel des Artikels in der Well-Rubrik der New York Times lautet
„Frustrated by the medical system, patients turn to chatbots“– direkt übersetzt: „Von dem Gesundheitssystem frustrierte Patienten wenden sich an Chatbots“.


Der Artikel beschreibt, wie ganz normale Menschen in den USA beginnen, ihre Gesundheitsfragen zuerst an die KI zu richten. Der Hintergrund dafür sind lange Wartezeiten auf Termine, hektische 15-minütige Konsultationen und die extrem hohen medizinischen Kosten.Reddit


Auf der anderen Seite benötigt man bei einem KI-Chatbot

  • weder ein Wartezimmer noch eine Terminvereinbarung

  • und man kann fast kostenlos rund um die Uhr Fragen stellen

  • Zudem hört er geduldig zu, ohne zu unterbrechen

Aus Sicht der Patienten wird es zunehmend einfacher, psychologisch und wirtschaftlich, „die KI zu fragen“ statt „zum Arzt zu gehen“.

2. Die Stimmung vor Ort auf Social Media: Begrüßung und Verwirrung

Der NYT-Artikel verbreitete sich schnell in den sozialen Medien, insbesondere auf dem internationalen Forum Reddit im Bereich r/medicine, wo eine hitzige Debatte unter medizinischem Fachpersonal entbrannte.Reddit


Stimmen der „zu großen Bequemlichkeit“

Ein Nutzer beklagte, dass „Klienten kostenlos anrufen könnten, sich aber trotzdem für rechtliche Beratung an Chatbots wenden“. Dies bezieht sich auf das Recht, gilt aber auch für die Medizin. Das heißt, die Anziehungskraft vonBequemlichkeitundSofortigkeitist so groß, dass Menschen „sogar dann zur KI wechseln, wenn sie kostenlos Experten fragen könnten“.Reddit


Ein Arzt kommentierte auch, dass stationäre Patienten ChatGPT nutzen, um ihre Krankheitsbilder zu verstehen. Obwohl echte Ärzte und Krankenschwestern neben dem Bett stehen, richten die Patienten ihre Fragen an den Smartphone-Bildschirm.Reddit


Dahinter steckt die Psychologie: „Es ist unangenehm, einen beschäftigten Arzt aufzuhalten. Aber bei der KI kann man bedenkenlos immer wieder nachfragen.“


„Ist das wirklich sicher?“ – Warnende Stimmen

Auf der anderen Seite wurden in demselben Thread auch starke Bedenken geäußert. Ein Beitrag wies auf

  • das Risiko für die Privatsphäre hin, wenn Patienten ihre Gesundheitsinformationen direkt in kommerzielle LLMs eingeben

  • und die Möglichkeit, dass die Eigenschaft der Modelle, sich dem Nutzer anzupassen („Sycophancy“), gefährliche Ratschläge hervorbringen könnte

.Reddit


Ein Artikel im WindowsForum, der die Sicherheit von medizinischen KI-Chatbots diskutiert, erklärt, dass es viele Fälle gibt, in denen „Sycophancy“ dazu führt, dass „Missverständnisse der Patienten nicht korrigiert werden und auf falschen Annahmen basierende Gespräche fortgeführt werden“.Windows Forum


Das Gefühl von „Die KI hat zugestimmt, also bin ich beruhigt“ ist das Gefährlichste.


Beispiele, in denen KI zur „Waffe“ wurde

In einem anderen Thread wurde ein Fall vorgestellt, in dem Angehörige den Chatbot Claude von Anthropic nutzten, um eine Rechnung über 195.000 Dollar für einen vierstündigen Aufenthalt auf der Intensivstation gründlich zu überprüfen. Sie konnten doppelte Abrechnungen und falsche Codes identifizieren und die Rechnung auf etwa 33.000 Dollar reduzieren.Reddit


Dies ist ein extremes Beispiel, zeigt aber, dass **KI als „Waffe“ auf der Patientenseite gegen ein zu komplexes Gesundheitssystem** eingesetzt wird.

3. Forschungsergebnisse zeigen die Leistungsfähigkeit von „AI-Beratung“

Nicht nur der subjektive Eindruck, sondern auch Forschungsdaten untermauern das Potenzial von KI-Chatbots.


Studie bewertet „Qualität und Empathie“ höher als bei Ärzten

In einer 2023 veröffentlichten Studie wurden Antworten auf Gesundheitsfragen, die in Online-Foren gepostet wurden, sowohl von Ärzten als auch von ChatGPT erstellt und von Experten blind hinsichtlich ihrer Qualität und Empathie bewertet. Die Ergebnisse zeigten, dass

  • der Anteil der Antworten, die als „gut“ oder „sehr gut“ bewertet wurden, bei Ärzten 22 % und bei Chatbots 78 % betrug

  • der Anteil der als „empathisch“ bewerteten Antworten bei Ärzten etwa 5 % und bei Chatbots 45 %

lag, wobei die KI deutlich besser abschnitt.ResearchGate


Natürlich beziehen sich diese Ergebnisse nur auf den schriftlichen Austausch, aber die Struktur, in der KI als „eine geduldige und ausführliche Erklärungsinstanz“ hoch bewertet wird, stimmt mit den Eindrücken aus den sozialen Medien überein.


Das „Dream-Team“ aus Arzt und KI?

Eine Studie der Stanford University verglich Ärzte, die allein arbeiteten, mit solchen, die die Vorschläge von Chatbots berücksichtigten.Die Ärzte, die die von der KI vorgeschlagenen Optionen in Betracht zogen, trafen bessere Entscheidungenals die allein arbeitenden Ärzte.Stanford Medicine


Das bedeutet, dass KI-Chatbots nicht als „Ersatz für Ärzte“, sondern als „Partner zur Unterstützung ärztlicher Entscheidungen“ am besten funktionieren.

4. Die weiterhin bestehenden großen Risiken

Dennoch kann man nicht einfach sagen: „Dann reicht ja die KI allein aus.“ Im Gegenteil, hier beginnen die Probleme erst.


① Halluzinationen und Sycophancy

Eine Übersicht über die Sicherheit von medizinischen KI-Chatbots hebt hervor, dass

  • das größte Risikoscheinbar korrekte, aber falsche Informationen (Halluzinationen)

  • und die Anpassung an Missverständnisse der NutzerSycophancy

sind.Windows Forum


Selbst ohne böswillige Absicht kann die Eigenschaft der KI, „Fragen beantworten zu wollen“, zu Fehlinformationen oder gefährlichen Ratschlägen führen.


② Fehlender Kontext

Die Washington Post warnt, dass „Chatbots nicht auf die gesamte Krankengeschichte oder den sozialen Hintergrund einzelner Patienten zugreifen können und daher wichtige Kontexte übersehen könnten“.The Washington Post


Zum Beispiel kann bei denselben Bauchschmerzen

  • eine kürzlich erfolgte Operation

  • die Einnahme von Antikoagulanzien

  • oder die Möglichkeit einer Schwangerschaft

die Beurteilung erheblich verändern. Solche komplexen Kontexte „vollständig in einem Chatfenster zu beschreiben“ ist unrealistisch, und oft verstehen Patienten selbst nicht die Wichtigkeit dieser Informationen.


③ Datenschutz und Datenhoheit

Das Magazin The New Yorker weist zudem auf das Risiko hin, dass „sobald medizinische Informationen in einen Chatbot eingegeben werden, unklar ist, wem die Daten gehören“. Ein Unternehmen berichtete, dass Chatprotokolle von Suchmaschinen einsehbar waren.The New Yorker

Die WHO betont, dass KI zwar die Zeit von medizinischem Personal einsparen kann, jedoch der Schutz persönlicher Daten, Bias und Fairness bei der Gestaltung und Verwaltung berücksichtigt werden müssen.cens.cl


5. Leitfaden für den „klugen Umgang“

Wie sollten wir also mit KI-Chatbots umgehen? Die medizinische Einrichtung der University of Washington, UW Medicine, gibt Tipps zur Nutzung von ChatGPT für Gesundheitsfragen.Right as Rain by UW Medicine


Hier fassen wir diese Tipps zusammen und bieten einen praktischen Leitfaden für den Alltag.


Situationen, in denen KI-Chatbots geeignet sind

  1. Vorbereitung und Fragestellung vor einem Arztbesuch

    • Beschreiben Sie Ihre Symptome und bitten Sie darum, eine Liste von Fragen zu erstellen, die Sie Ihrem Arzt stellen sollten.

    • Dies reduziert die Wahrscheinlichkeit, wichtige Fragen in der kurzen Konsultationszeit zu vergessen.

  2. Grundlegendes Verständnis von Testergebnissen oder Diagnosen

    • Basierend auf den Erklärungen des Arztes können Sie bitten, die Informationen „einfacher zu erklären“ oder „so, dass es ein 10-jähriges Kind versteht“.

    • Stellen Sie sich dies als eine Art „medizinischen Übersetzer“ vor, der komplexe Fachbegriffe in verständliche Sprache übersetzt.

    • ##