Ein Unbehagen, das Ärzte übersahen und von der KI erkannt wurde – Eine Frau, die jahrelang falsch diagnostiziert wurde, fand mit Hilfe der KI die „wahre Diagnose“.

Ein Unbehagen, das Ärzte übersahen und von der KI erkannt wurde – Eine Frau, die jahrelang falsch diagnostiziert wurde, fand mit Hilfe der KI die „wahre Diagnose“.

„KI entdeckt seltene Krankheit bei Frau“. Ein solcher Titel könnte den Eindruck erwecken, dass ein Chatbot einem Arzt überlegen war. Doch das Wesentliche an diesem Ereignis ist nicht die Allmacht der KI, sondern dass die Beschwerden der Patientin jahrelang nicht ernst genommen wurden. Die 23-jährige Phoebe Tesoriere aus Cardiff, Wales, litt lange Zeit unter Symptomen wie Gehbehinderung, sensorischen Anomalien, Inkontinenz und abnormalen Reflexen, während sie verschiedene Diagnosen wie Angst, Depression und Epilepsie erhielt. Selbst nach einem mehrtägigen Koma infolge eines Krampfanfalls erhielt sie keine ausreichende Antwort.

Berichten zufolge wurde ihr nach mehreren Besuchen in der Notaufnahme nahegelegt, dass sie als psychiatrische Patientin behandelt werden könnte, wenn sie weiterhin die Klinik aufsucht. Der Schock vieler Menschen rührte nicht daher, dass die KI richtig lag, sondern dass eine Patientin mit so komplexen und schweren Symptomen fast in die Kategorie „Einbildung“ oder „mentales Problem“ gedrängt wurde. Seltene Krankheiten sind im medizinischen Bereich schwer zu erkennen. Doch nicht erkennen zu können ist nicht dasselbe wie die Beschwerden leichtfertig zu behandeln. Dieser Unterschied verhindert, dass diese Geschichte nur als technologisches Märchen endet.

Der Wendepunkt kam, als sie ihre Symptome in einen KI-Chatbot eingab. Der Chatbot schlug als eine der Möglichkeiten Hereditäre Spastische Paraplegie (HSP) vor. Sie brachte diese Möglichkeit zu ihrem Hausarzt, und eine anschließende genetische Untersuchung bestätigte die Diagnose. Letztlich war es nicht die KI, die die Diagnose stellte, sondern eine medizinische Einrichtung. Allerdings schuf die KI die Grundlage, auf der die Patientin ihren Arzt konsultieren konnte.

HSP ist eine seltene, fortschreitende erbliche Erkrankung, die durch Muskelschwäche und Steifheit in den Beinen sowie Gehbehinderung gekennzeichnet ist. Es gibt viele Arten, darunter einfache und komplexe Formen, wobei letztere auch die oberen Gliedmaßen, sensorische, Blasen- und andere neurologische Funktionen betreffen können. Sowohl der NHS als auch das US-amerikanische NINDS beschreiben HSP als „seltene, fortschreitende erbliche neurologische Erkrankung“, die schwer zu diagnostizieren ist und leicht mit anderen Krankheiten verwechselt werden kann. Daher ist dieser Fall nicht einfach ein Gegensatz von „unfähigen Ärzten und fähiger KI“, sondern eine Frage, wie Patienten sich in begrenzter Behandlungszeit und angesichts seltener Krankheiten schützen können.

Wichtig ist hier, dass die KI nicht „diagnostiziert“, sondern „Hypothesen geordnet“ hat. Menschen können die Veränderungen in ihrem Körper nicht immer in medizinischen Begriffen erklären. Wenn mehrere Symptome gleichzeitig auftreten, werden sie oft als separate Probleme behandelt, was das Gesamtbild verschleiert. Der KI-Chatbot kann diese Fragmente zusammenfassen und eine Liste möglicher Diagnosen zurückgeben. Der Wert lag nicht nur darin, dass eine seltene Krankheit auf der Liste stand, sondern dass die Patientin sagen konnte: „Bitte untersuchen Sie in diese Richtung.“ Die KI ersetzte nicht die Medizin, sondern diente als Hilfslinie, um Zugang zur Medizin zu erhalten.

Die große Verbreitung dieser Geschichte in den sozialen Medien liegt darin, dass viele Menschen sich damit identifizieren konnten. Auf LinkedIn gab es neben einer vorsichtigen Zustimmung, dass „KI oft Unsinn liefert, aber manchmal nützlich ist“, auch Stimmen von Betroffenen, die sagten, dass bei Krankheiten wie ME/CFS die KI genauere Antworten als Ärzte gegeben habe. Andererseits gab es auch Meinungen, dass „KI viel bieten kann... wenn sie mit Vorsicht eingesetzt wird“. Der Fokus der Diskussion lag nicht auf der Verherrlichung der KI, sondern auf der Empathie von Menschen, die „in der Medizin nicht richtig gehört wurden“.

 

Auf X gab es noch emotionalere Reaktionen. Ein Beitrag äußerte Wut über den Missbrauch von psychiatrischen Labels in der medizinischen Behandlung. Ein anderer Kommentar wies darauf hin, dass das, was einst als „Dr. Google“ bekannt war, nun durch „Dr. KI“ ersetzt wird. So wird dieses Ereignis in den sozialen Medien nicht nur als Tech-News betrachtet, sondern im Kontext größerer gesellschaftlicher Probleme wie Misstrauen in die Medizin, die Tendenz, Symptome von Frauen zu verharmlosen, und die Notwendigkeit der Selbstverteidigung von Patienten.

Es ist jedoch gefährlich, sich von der Begeisterung mitreißen zu lassen. Eine von der Universität Oxford im Februar 2026 veröffentlichte Studie zeigte, dass Teilnehmer, die KI für Gesundheitsberatung nutzten, im Vergleich zu denen, die traditionelle Suchmethoden oder NHS-Websites verwendeten, keinen klaren Vorteil bei realen Entscheidungen hatten. Ein Grund dafür ist, dass Nutzer nicht genügend Informationen eingeben können. Ein weiterer Grund ist, dass die Antworten der KI sowohl gute als auch schlechte Informationen enthalten, die schwer zu unterscheiden sind. Auch die Tatsache, dass sich die Antworten bei geringfügig unterschiedlicher Fragestellung stark ändern können, wurde als Problem identifiziert. KI kann manchmal Hinweise geben, ist aber allein kein sicheres Entscheidungsinstrument.

OpenAI selbst erklärt, dass KI im Gesundheitsbereich „die Medizin unterstützt, aber keine Alternative zu Diagnose oder Behandlung ist“. Dies ist nicht nur eine vorsichtige Stellungnahme des Unternehmens, sondern auch ein wichtiger Blickwinkel, um den Fall von Phoebe zu verstehen. Ihr Fall sollte nicht als Beispiel dafür angesehen werden, dass KI die Medizin übertrifft, sondern als Beispiel dafür, dass eine Patientin endlich einen „Umweg“ gefunden hat, um Zugang zur Medizin zu erhalten. Die Frage, die dieses Ereignis aufwirft, ist nicht nur „Sollte KI mehr für Diagnosen eingesetzt werden?“, sondern auch „Warum musste die Patientin so weit gehen, um gehört zu werden?“.

Durch den Einsatz von KI in der Medizin haben Patienten ein neues Werkzeug erhalten. Es hilft, Symptome zu ordnen, Fachbegriffe zu lernen und die nächsten Fragen an den Arzt zu überlegen. Gleichzeitig kann dieses Werkzeug jedoch auch Fehlinformationen oder Vorurteile verstärken. Wenn dieser Fall nur als „Wunder, dass ChatGPT eine Krankheit erkannt hat“ betrachtet wird, geht das eigentliche Lernpotenzial verloren. Es geht nicht darum, KI blind zu vertrauen oder sie vollständig abzulehnen. Es geht darum, die Stimmen der Patienten früher und sorgfältiger zu hören und KI als unterstützendes Werkzeug für diesen Dialog zu nutzen.

Der Hauptakteur dieser Geschichte ist bis zum Schluss nicht die KI. Es ist eine Patientin, die trotz anhaltender Leiden und fehlender Antworten nicht aufgab, die Veränderungen in ihrem Körper zu verstehen. Die KI gab dieser Entschlossenheit lediglich Worte. Doch manchmal reicht es, die richtigen Fragen zu haben, um endlich die richtige medizinische Versorgung zu erhalten. In diesem Sinne sollte dieses Ereignis nicht als Sieg der KI, sondern als Moment in Erinnerung bleiben, in dem „nicht gehörte Stimmen“ endlich sichtbar wurden.


Quelle URL

  1. https://g1.globo.com/tecnologia/noticia/2026/04/14/como-chatbot-de-ia-descobriu-condicao-rara-de-mulher-apos-anos-de-diagnosticos-errados.ghtml
  2. Artikel, der Inhalte der BBC zusammenfasst und die Geschichte von Phoebe Tesoriere, den Prozess der Eingabe ihrer Symptome in die KI und die Bestätigung der Diagnose durch genetische Tests beschreibt.
    https://www.pslhub.org/blogs/entry/9724-chatgpt-uncovered-womans-rare-condition-after-years-of-misdiagnosis/
  3. Verwendung zur Bestätigung spezifischer Symptome und der Diagnose einer komplexen Form von HSP im August 2025.
    https://www.ladbible.com/news/health/anxiety-chatgpt-health-diagnosis-phoebe-tesoriere-hsp-410723-20260407
  4. Grundlegende Erklärung zu HSP (Hereditäre Spastische Paraplegie). Allgemeine Beschreibung durch den NHS.
    https://www.nhs.uk/conditions/hereditary-spastic-paraplegia/
  5. Bestätigung der Definition von HSP als fortschreitende neurologische Erkrankung. Erklärung durch das US-amerikanische NINDS.
    https://www.ninds.nih.gov/health-information/disorders/hereditary-spastic-paraplegia
  6. Zusätzliche Bestätigung, dass HSP eine erbliche, fortschreitende neurologische Erkrankungsgruppe ist. Erklärung durch das US-amerikanische GARD.
    https://rarediseases.info.nih.gov/diseases/6637/hereditary-spastic-paraplegia
  7. Verwendung zur Bestätigung von Risiken bei der Nutzung von KI für medizinische Beratung. Punkt der Vermischung guter und schlechter Informationen, die schwer zu unterscheiden sind.
    https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice
  8. Ergänzung derselben Oxford-Studie. Bestätigung, dass sich Antworten bei geringfügig unterschiedlicher Fragestellung stark ändern können.
    https://www.oii.ox.ac.uk/news-events/new-study-warns-of-risks-in-ai-chatbots-giving-medical-advice/
  9. Reuters-Artikel, der die Oxford-Studie berichtet. Bestätigung, dass KI-Nutzer keinen großen Vorteil bei realen Entscheidungen zeigten.
    https://www.reuters.com/business/healthcare-pharmaceuticals/ai-no-better-than-other-methods-patients-seeking-medical-advice-study-shows-2026-02-09/
  10. Offizielle Erklärung von OpenAI. Bestätigung der Richtlinie, dass KI im Gesundheitsbereich die Medizin unterstützt, aber keine Alternative zu Diagnose oder Behandlung ist.
    https://openai.com/index/introducing-chatgpt-health/
  11. Verwendung von LinkedIn-Posts zur Bestätigung von Reaktionen in sozialen Medien. Quelle für vorsichtige Zustimmung und empathische Reaktionen in den Kommentaren.
    https://www.linkedin.com/posts/anilvanderzee_chatgpt-diagnoses-cardiff-womans-rare-condition-activity-7448414384688861184-JEaN
  12. Verwendung von X-Post-Suchergebnissen zur Bestätigung von Reaktionen in sozialen Medien. Bestätigung von Wut über die medizinische Behandlung und skeptische Wahrnehmung.
    https://x.com/Miroandrej/status/2042668305190948993
  13. Verwendung von X-Post-Suchergebnissen zur Bestätigung von kritischen Reaktionen auf den Umgang mit psychiatrischen Labels.
    https://x.com/senmum05