Darf KI in das Behandlungszimmer? Ein Arzt spricht über "Orte, an denen sie eingesetzt werden sollte / Orte, die vermieden werden sollten"

Darf KI in das Behandlungszimmer? Ein Arzt spricht über "Orte, an denen sie eingesetzt werden sollte / Orte, die vermieden werden sollten"

1) Ärzte sind nicht gegen KI. Das Problem ist "KI, die direkt mit Patienten spricht"

TechCrunch zeichnete kein Bild eines Konflikts zwischen "Ärzten und KI". Vielmehr sehen sowohl Ärzte als auch Investoren, dass "die Ineffizienzen im Gesundheitswesen durch KI verbessert werden können". Die Sorge besteht darin, dass in dem Moment, in dem KI zur **Schnittstelle mit Patienten** wird, die Fragen der Verantwortung und Sicherheit plötzlich schwerwiegender werden.


Auch in einem TechCrunch-Beitrag auf LinkedIn konzentrierte sich die Besorgnis nicht auf die "KI selbst", sondern darauf, dass "wenn KI beginnt, mit Patienten zu interagieren, die Verantwortlichkeit unklar wird". Im Gesundheitswesen ist es eine Welt, in der jemand rechtlich, ethisch und klinisch verantwortlich ist, wenn die Ergebnisse schlecht sind.



2) Eine starke Zahl wie "45% Lungenembolie" verzerrt die Behandlung

Dr. Sina Bari, ein Chirurg und führend im Bereich medizinischer KI, erzählt von einer Erfahrung, bei der er von einer Antwort einer generativen KI, die ein Patient mitgebracht hatte, schockiert war. Das empfohlene Medikament war mit einer "45% Wahrscheinlichkeit für eine Lungenembolie" versehen, aber bei der Überprüfung stellte sich heraus, dass diese Zahl aus einer Studie über eine begrenzte Gruppe von Tuberkulosepatienten stammte und auf diesen Patienten nicht zutraf.


Hier liegt die Gefahr von medizinischen Chatbots.
Medizinische Zahlen ändern ihre Bedeutung, wenn sich die Zielgruppe, Bedingungen oder Annahmen ändern. Dennoch sind **"Zahlen stark"**. Patienten werden besorgt, und Ärzte müssen mit der "Korrektur von Missverständnissen" beginnen. Je selbstbewusster ein Fehler präsentiert wird (sogenannte Halluzinationen), desto höher sind die Kommunikationskosten und Risiken.



3) Warum Dr. Bari trotz allem Hoffnungen in "ChatGPT Health" setzt

Überraschend ist, dass Dr. Bari trotz dieser Erfahrung mehr "Hoffnung als Bedenken" in OpenAIs ChatGPT Health setzt. Der Grund ist einfach:Der Trend, dass Patienten KI für Gesundheitsberatung nutzen, ist bereits im Gange. Daher ist es besser, einen privateren Raum und Schutzmaßnahmen zu schaffen und die Realität anzupassen, um sie sicherer zu "institutionalisieren".


ChatGPT Health teilt Gespräche im Gesundheitsbereich in einen speziellen Raum auf und (laut OpenAI) wird es nicht für das Lernen des Basismodells verwendet. Es gibt auch Pläne, die Individualität durch das Hochladen von medizinischen Aufzeichnungen und die Integration mit Apple Health oder MyFitnessPal zu erhöhen.



4) "Es ist gefährlich, also benutze es nicht" funktioniert nicht – die Realität der 3- bis 6-monatigen Wartezeit

Dr. Nigam Shah von Stanford zeigt, dass die Diskussion über medizinische KI nicht nur um "Genauigkeit" gehen kann. In einer Situation, in der es nicht ungewöhnlich ist, 3 bis 6 Monate auf einen Termin in der Primärversorgung zu warten, stellt er die Frage: "Warten Sie ein halbes Jahr auf einen echten Arzt oder sprechen Sie mit jemandem, der kein Arzt ist, aber etwas tun kann?"


Dieser Standpunkt ist wichtig. Wenn der Zugang zur Gesundheitsversorgung ausreichend wäre, könnte man sich entscheiden, "KI nicht zu nutzen, weil sie gefährlich ist". Aber für diejenigen, die nicht behandelt werden können oder zu lange warten müssen, dringt KI als **"besser als nichts"** ein. Daher verlagert sich der Fokus der Diskussion von "Kann KI verboten werden?" zuWie man ein Design und ein System schafft, um Unfälle zu reduzieren.



5) Der kürzeste Weg für medizinische KI ist, "die Zeit der Ärzte zurückzugewinnen" statt "Patienten zu ersetzen"

Der realistische Weg, den Dr. Shah aufzeigt, ist die Einführung auf der **Anbieterseite (Gesundheitsdienstleister)** statt bei Patienten-Chats. In der Primärversorgung wird darauf hingewiesen, dass Verwaltungsarbeiten die Hälfte der Zeit der Ärzte in Anspruch nehmen. Wenn dies automatisiert werden könnte, würde die Anzahl der Patienten, die behandelt werden können, steigen, und der Druck, dass Patienten zu "Ersatzarzt-KI" strömen, würde verringert.


Das von Stanford entwickelte ChatEHR zielt darauf ab, die Informationssuche in elektronischen Krankenakten dialogorientiert zu gestalten, um die "Suchzeit" der Ärzte zu reduzieren und die "Gesprächszeit mit Patienten" zu erhöhen.


In demselben Kontext wird erklärt, dass Claude for Healthcare von Anthropic die Möglichkeit bietet, "lästige, aber notwendige" Aufgaben wie die Vorabgenehmigung zu verkürzen. In Erklärungen an Beteiligte wird erwähnt, dass pro Fall 20 bis 30 Minuten eingespart werden könnten, was sich zu einer erheblichen Zeitersparnis summiert.



6) Datenschutz: Was passiert, wenn man außerhalb von HIPAA ist

Wenn Patienten ihre medizinischen Aufzeichnungen an Chatbots übergeben, verlässt die Daten den Verwaltungsbereich des Krankenhauses und der Schutzrahmen kann sich ändern. Itai Schwartz, Mitbegründer eines Unternehmens für Datenschutzmaßnahmen, sieht ein Problem darin, dass medizinische Daten von HIPAA-konformen Organisationen zu nicht konformen Anbietern wechseln, und beobachtet die Reaktion der Regulierungsbehörden genau.


Diese Besorgnis ist auch in sozialen Netzwerken stark. In Diskussionen auf Hacker News gibt es Bedenken, dass "Gesundheitsdaten außerhalb von HIPAA liegen und möglicherweise mit zukünftiger Monetarisierung (Versicherung, Beschäftigung usw.) verbunden werden könnten", sowie Beschwerden über komplexe Einstellungen, bei denen man "unbemerkt teilt".


OpenAI erklärt hingegen, dass Health keine Alternative zur medizinischen Versorgung, sondern eine Unterstützung darstellt und spezielle Schutzdesigns verwendet werden. Hier ist es wichtig, dass dies nicht nur ein "Versprechen des Unternehmens" bleibt, sondern durch Audits, Regulierung und Transparenz "überprüfbar" gemacht wird, um Vertrauen zu schaffen.



7) Reaktionen in sozialen Netzwerken: Die Meinungen sind geteilt, aber die Streitpunkte sind fast dieselben

Auf **LinkedIn (rund um den TechCrunch-Beitrag)** fand die Ansicht Unterstützung, dass "KI, die Ärzte bei der Diagnoseunterstützung und Dokumentation unterstützt, willkommen ist, aber KI, die direkt mit Patienten interagiert, die Verantwortungsgrenzen unklar macht". Kurz gesagt, es besteht mehr Unsicherheit über die "Verantwortungszuweisung" als über die "Bequemlichkeit".


Auf Hacker News sind die Meinungen noch unterschiedlicher.
Eine Gruppe teilt Erfahrungsberichte darüber, wie es bei der Interpretation von Testergebnissen und der Vorbereitung auf die Kommunikation mit Ärzten geholfen hat, und argumentiert, dass "Regulierung notwendig ist, aber der Wert nicht verloren gehen sollte".


Eine andere Gruppe äußert Bedenken darüber, dass KI dazu neigt, in die Richtung zu lenken, "die man hören möchte" (z.B. das Gespräch neu zu starten, um die gewünschte Antwort zu erhalten) und dass sie das Risiko birgt, Selbstdiagnosen, übermäßige Nahrungsergänzungsmittel und Misstrauen gegenüber der Medizin zu verstärken. Darüber hinaus gibt es starke Meinungen, dass "wenn es öffentlich zugänglich gemacht wird, eine unabhängige Sicherheitszertifizierung zuerst erfolgen sollte".


Dieser Konflikt läuft letztlich auf die folgenden drei Punkte hinaus.

  1. Je schlechter der Zugang zur Gesundheitsversorgung, desto größer die Nachfrage nach KI (schwer zu stoppen)

  2. Schäden durch Fehlinformationen konzentrieren sich tendenziell auf "schwache Positionen" (diejenigen, die in Not sind, verlassen sich eher darauf)

  3. Es ist am schlimmsten, wenn Verantwortung und Datenschutz unklar bleiben (daher sind Systeme erforderlich)



8) Wie kann man medizinische Chatbots für Patienten nutzen, um "Unfälle zu reduzieren"?

Als Fazit sollte medizinische KI sicherheitshalber nicht als "Ersatz für Diagnosen", sondern zunächst alsHilfe zur Verbesserung der Behandlungsqualität eingesetzt werden.

  • Organisation von Symptomen und Verlauf, Notizen der wichtigsten Punkte für den Arztbesuch

  • Verständnis allgemeiner Erklärungen zu Testergebnissen, Medikamenten und Krankheitsnamen (die endgültige Entscheidung trifft jedoch der Arzt)

  • Erstellung einer Liste von Fragen für den nächsten Arztbesuch


Und auf gesellschaftlicher Ebene ist es sinnvoller, zunächst in **KI für Gesundheitsdienstleister (z.B. Aktenrecherche, Verwaltung, Vorabgenehmigungen)** zu investieren, um den "Halbjahres-Wartezeit" zu reduzieren.


Wie Dr. Bari sagte, erfordert der Schutz der Patienten, dass Gesundheitsdienstleister "konservativ und vorsichtig" sind. Medizinische KI sollte kein Werkzeug sein, das diese Vorsicht zerstört, sondern eines, das sie unterstützt.



Referenz-URLs


Referenzartikel

Ärzte glauben, dass KI im Gesundheitswesen eine Rolle spielen kann, aber vielleicht nicht als Chatbot.
Quelle: https://techcrunch.com/2026/01/13/doctors-think-ai-has-a-place-in-healthcare-but-maybe-not-as-a-chatbot/