医生的疏忽,AI发现的异常——多年误诊的女性,通过AI找到了“真正的病名”

医生的疏忽,AI发现的异常——多年误诊的女性,通过AI找到了“真正的病名”

「AI发现了女性的罕见疾病」。仅看这样的标题,似乎可以解读为聊天机器人比医生更优秀的故事。然而,这一事件的本质在于,患者的诉求多年来未能得到正视,而非AI的万能性。住在英国威尔士卡迪夫的23岁女性菲比·特索里埃尔长期以来被诊断为焦虑、抑郁、癫痫等多种问题,同时饱受步行障碍、感觉异常、失禁、反射异常等症状的困扰。即使经历了癫痫发作后的数日昏迷,她依然未能得到充分的答案。

据报道,她多次就诊于急诊科,最终被暗示如果继续来院,可能会被当作精神病患者对待。令许多人震惊的并不是AI的准确性,而是这样一位症状复杂且严重的患者,几乎被归类为“心理问题”或“精神问题”。在医疗现场,罕见疾病往往难以识别。然而,无法识别与轻视患者的诉求是不同的。这一区别使得此次事件不仅仅是一个技术美谈。

转折点在于她将自己的症状输入了AI聊天机器人。聊天机器人作为多个候选之一,指出了遗传性痉挛性截瘫(Hereditary Spastic Paraplegia,HSP)的可能性。她将这一可能性告知了全科医生,随后通过基因检测确认了诊断。换句话说,最终确诊的是医疗机构,而非AI。然而,AI确实为患者本人向医生咨询“是否可能是这种疾病”提供了基础。

HSP是一种以腿部肌力减退、僵硬、步行障碍为特征的罕见进行性遗传疾病群。其种类繁多,分为简单型和复杂型,复杂型可能伴有上肢、感觉、排尿功能及其他神经症状。NHS和美国NINDS也将HSP描述为“罕见进行性遗传神经疾病”,并指出其诊断困难,难以与其他疾病区分。因此,此次案例并非简单的“医生无能,AI有能”的对立,而是需要在有限的诊疗时间和罕见疾病的复杂性中,探讨患者如何自我保护的问题。

关键在于,AI并非“诊断”了疾病,而是“整理了假设”。人类并不总能用医学语言解释身体的异常,尤其是当多种症状同时出现时,各自被视为不同的问题,整体情况难以看清。AI聊天机器人能够将这些碎片整合,返回可能的病名列表。在此次事件中,价值不仅在于列表中包含了罕见疾病,更在于患者能够用语言表达“希望朝这个方向进行检查”。AI并未取代医疗,而是作为接触医疗的辅助线发挥了作用。

这一事件在社交媒体上广泛传播,因为其结构与许多人的实际感受相连。在LinkedIn上,除了“AI有时很有用,但也有很多胡说八道”的谨慎肯定,还有“在像ME/CFS这样的疾病中,AI比医生提供了更准确答案”的当事者声音。同时,“AI can offer a lot.. when used with care(AI可以提供很多帮助,但需谨慎使用)”的观点也很突出。话题的中心并非AI的赞美,而是“在医疗中未能被认真倾听的经历”引发的共鸣。

 

在X平台上,情感更为强烈的反应也有所体现。有帖子借此事件表达了对“精神疾病标签被滥用”的愤怒,以及对医疗应对的愤怒。另一些反应指出,曾被称为“Dr. Google”的现象正逐渐被“Dr. AI”取代。换句话说,社交媒体并未将此事件视为单纯的科技新闻,而是置于医疗不信任、女性症状易被轻视、患者自我防卫必要性等更大的社会问题背景中。

然而,在此时被热情冲昏头脑是危险的。牛津大学在2026年2月发布的研究显示,使用AI进行健康咨询的参与者在现实决策中并未表现出明显的优势,较之使用传统搜索或NHS网站的人。原因之一是使用者无法充分输入所需信息。另一个原因是AI的回答混杂了好信息和坏信息,使用者难以辨别。问题的措辞稍有变化就会导致答案的显著变化,这也是一个被指出的问题。换句话说,AI有时提供线索,但并不因此成为安全的判断工具。

OpenAI本身也解释称,AI在健康领域是支持医疗的工具,而非诊断或治疗的替代品。这既是企业谨慎立场的声明,也是解读此次案例的重要视角。菲比的案例不应被视为AI凌驾于医疗之上的例子,而是患者终于找到通往医疗的“迂回路径”的例子。因此,这一事件提出的问题不仅是“是否应更多地使用AI进行诊断”,还有“为何患者需要如此努力才能被倾听”。

AI进入医疗领域,为患者提供了新的武器。帮助整理症状,了解专业术语,思考接下来应向医生提出哪些问题。然而,这一武器同时也可能成为强化误信息或偏见的利刃。如果仅将此次事件视为“ChatGPT识别疾病的奇迹”,将会错失真正应学习的内容。所需的不是盲信AI,也不是全面否定AI,而是更早、更细致地倾听患者的声音,并将AI作为支持对话的辅助工具。如何构建这种关系将成为下一个论点。

此次事件的主角始终不是AI。是那位在未得到答案的情况下仍在痛苦中坚持,并未放弃对自己身体异常的患者。AI仅仅为这种执着赋予了语言。然而,有时人们仅凭获得正确的问题,就能终于接近适当的医疗。从这个意义上说,这一事件应被记忆为“未被倾听的声音”终于得以可视化的瞬间,而非AI的胜利。


出典URL

  1. https://g1.globo.com/tecnologia/noticia/2026/04/14/como-chatbot-de-ia-descobriu-condicao-rara-de-mulher-apos-anos-de-diagnosticos-errados.ghtml
  2. BBC系の内容を転載・要約した記事。フィービー・テソリエールさんの経緯、AIに症状を入力した流れ、遺伝子検査で確定した点の確認に使用
    https://www.pslhub.org/blogs/entry/9724-chatgpt-uncovered-womans-rare-condition-after-years-of-misdiagnosis/
  3. 症状の具体例や、2025年8月に複雑型四肢型のHSPと診断されたという補足情報の確認に使用
    https://www.ladbible.com/news/health/anxiety-chatgpt-health-diagnosis-phoebe-tesoriere-hsp-410723-20260407
  4. HSP(遺伝性痙性対麻痺)の基礎説明。NHSによる一般向け解説
    https://www.nhs.uk/conditions/hereditary-spastic-paraplegia/
  5. HSPの定義と進行性の神経疾患であることの確認。米国NINDSの解説
    https://www.ninds.nih.gov/health-information/disorders/hereditary-spastic-paraplegia
  6. HSPが遺伝性・進行性の神経疾患群であることの補足確認。米国GARDの解説
    https://rarediseases.info.nih.gov/diseases/6637/hereditary-spastic-paraplegia
  7. AIの医療相談リスクに関するオックスフォード大学の発表。「良い情報と悪い情報が混在し、利用者が見分けにくい」点の確認に使用
    https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice
  8. 同じオックスフォード研究の補足。質問のわずかな違いで回答が変わる点などの確認に使用
    https://www.oii.ox.ac.uk/news-events/new-study-warns-of-risks-in-ai-chatbots-giving-medical-advice/
  9. オックスフォード研究を報じたReuters記事。現実の意思決定でAI利用者が大きな優位を示さなかった点の確認に使用
    https://www.reuters.com/business/healthcare-pharmaceuticals/ai-no-better-than-other-methods-patients-seeking-medical-advice-study-shows-2026-02-09/
  10. OpenAIの公式説明。健康領域でのAIは医療を支援するもので、診断や治療の代替ではないという方針確認に使用
    https://openai.com/index/introducing-chatgpt-health/
  11. SNS反応の確認に使用したLinkedIn投稿。慎重な肯定論とコメント欄の共感反応の参照元
    https://www.linkedin.com/posts/anilvanderzee_chatgpt-diagnoses-cardiff-womans-rare-condition-activity-7448414384688861184-JEaN
  12. SNS反応の確認に使用したX投稿検索結果。医療対応への怒りや懐疑的な受け止め方の確認に使用
    https://x.com/Miroandrej/status/2042668305190948993
  13. SNS反応の確認に使用したX投稿検索結果。精神医療ラベルの扱われ方への批判的反応の確認に使用
    https://x.com/senmum05