医師が見落とし、AIが拾った違和感 ― 何年も誤診された女性が、AIでたどり着いた「本当の病名」

医師が見落とし、AIが拾った違和感 ― 何年も誤診された女性が、AIでたどり着いた「本当の病名」

「AIが女性の希少疾患を見つけた」。そんな見出しだけを見ると、まるで医師よりもチャットボットのほうが優秀だった、という物語に読める。だが、この出来事の本質は、AIの万能さよりも先に、患者の訴えが何年も正面から扱われなかったことにある。英国ウェールズのカーディフに住む23歳のフィービー・テソリエールさんは、長いあいだ不安、うつ、てんかんなど複数の説明を受けながら、歩行障害や感覚異常、失禁、反射の異常といった症状に苦しんできた。けいれん発作のあと数日間の昏睡を経験してもなお、十分な答えにたどり着けなかったという。

報道によれば、彼女は救急外来を繰り返し受診した末、今後も来院を続ければ精神科患者として扱われる可能性を示唆されたという。ここに多くの人が衝撃を受けたのは、AIが当てたからではない。むしろ、これほど複雑で重い症状を抱えた患者が、「気のせい」「メンタルの問題」といった枠に押し込められかけていたことのほうだ。医療の現場では珍しい病気ほど見抜きにくい。だが、見抜けないことと、訴えを軽く扱うことは同じではない。この違いが、今回の話題を単なるテクノロジー美談では終わらせない理由になっている。

転機になったのは、彼女が自分の症状をAIチャットボットに入力したことだった。チャットボットは複数の候補のひとつとして、遺伝性痙性対麻痺、英語でHereditary Spastic Paraplegia(HSP)を示したという。彼女はその可能性を一般開業医に持ち込み、その後の遺伝子検査で診断が確認された。つまり、最終的に病名を確定したのはAIではなく医療機関だ。ただし、患者本人が「この病気ではないか」と医師に相談するための足場をAIが作ったことは確かである。

HSPは、脚の筋力低下やこわばり、歩行障害などを特徴とする、まれで進行性の遺伝性疾患群だ。種類は多く、単純型と複雑型があり、複雑型では上肢や感覚、排尿機能、その他の神経症状を伴うこともある。NHSや米国NINDSも、HSPを「まれで進行性の遺伝性神経疾患」と説明しており、診断が難しく、ほかの病気と見分けにくいことがあるとしている。だからこそ今回のケースは、「医師が無能でAIが有能だった」という単純な対立ではなく、限られた診療時間と希少疾患の難しさの中で、患者がどう自分を守るかという問題として見る必要がある。

ここで重要なのは、AIが“診断した”のではなく、“仮説を整理した”という点だ。人間は体に起きている異変を、いつも医学の言葉で説明できるわけではない。しかも複数の症状が同時に起きると、それぞれが別の問題として扱われ、全体像が見えにくくなる。AIチャットボットは、その断片をまとめて、あり得る病名を一覧として返すことができる。今回も価値があったのは、その一覧の中に希少疾患が入っていたこと以上に、患者が「この方向で検査してほしい」と言語化できたことだろう。医療を置き換えたのではなく、医療にアクセスするための補助線として機能したのである。

この話がSNSで大きく広がったのも、その構図が多くの人の実感とつながったからだ。LinkedInでは、「AIはでたらめも多いが、時に役立つ」という慎重な肯定に加え、「ME/CFSのような病気では、医師よりAIのほうが正確な答えを返したことがある」という当事者の声も見られた。一方で、「AI can offer a lot.. when used with care(AIは大きな力になり得る。ただし慎重に使うなら)」と、使い方を限定すべきだという意見も目立った。話題の中心はAI礼賛ではなく、「医療でうまく聞いてもらえなかった経験」を持つ人々の共感にあったと言える。

 

X上では、さらに感情の強い反応も見られた。ある投稿では、この件を引き合いに「精神疾患のラベルが乱用されているのではないか」と医療対応そのものへの怒りが表明されていた。また別の反応では、かつて“Dr. Google”と呼ばれていたものが、今や“Dr. AI”に置き換わりつつある、という指摘もあった。つまりSNSは、この出来事を単なるテックニュースとしてではなく、医療不信、女性の症状が軽く見られやすいことへの不満、患者の自己防衛の必要性といった、より大きな社会問題の文脈で受け止めている。

ただし、ここで熱狂に流されるのは危険だ。オックスフォード大学が2026年2月に発表した研究では、健康相談でAIを使った参加者は、従来の検索やNHSサイトを使った人々と比べて、現実の意思決定で明確な優位を示さなかった。理由のひとつは、利用者が必要な情報を十分に入力できないこと。もうひとつは、AIの回答自体が良い情報と悪い情報を混在させ、利用者がそれを見分けにくいことだった。質問の言い回しが少し変わるだけで答えが大きく変わる点も課題として指摘されている。つまり、AIはときにヒントを与えるが、それだけで安全な判断装置になるわけではない。

OpenAI自身も、健康分野におけるAIについて「医療を支えるものであって、診断や治療の代替ではない」と説明している。これは企業としての慎重な立場表明であると同時に、今回のケースを読み解くうえでも重要な視点だ。フィービーさんのケースは、AIが医療の上位に立った例ではなく、患者がようやく医療に届くための“迂回路”を見つけた例として読むべきだろう。だからこの出来事が突きつける問いは、「AIをもっと診断に使うべきか」だけではない。「なぜ患者はそこまでしないと聞いてもらえなかったのか」でもある。

AIが医療に入り込むことで、患者の側には新しい武器が生まれた。症状を整理し、専門用語を知り、次にどんな質問を医師にすべきかを考える助けになる。しかし同時に、その武器は誤情報や思い込みを強化する刃にもなり得る。今回の件を「ChatGPTが病気を見抜いた奇跡」とだけ消費してしまえば、本当に学ぶべきことを見失う。必要なのは、AIを盲信することでも、全面否定することでもない。患者の声をもっと早く、もっと丁寧に拾う医療と、その対話を支える補助ツールとしてのAI。その関係をどう作るかが、次の論点になる。

今回の物語の主役は、最後までAIではない。答えが出ないまま苦しみ続け、それでも自分の体に起きている異変を諦めなかった一人の患者だ。AIは、その執念に言葉を与えたにすぎない。だが、ときに人は、正しい問いを手に入れるだけで、ようやく適切な医療へ近づける。その意味でこの出来事は、AIの勝利ではなく、「聞かれなかった声」がようやく可視化された瞬間として記憶されるべきなのかもしれない。


出典URL

  1. https://g1.globo.com/tecnologia/noticia/2026/04/14/como-chatbot-de-ia-descobriu-condicao-rara-de-mulher-apos-anos-de-diagnosticos-errados.ghtml
  2. BBC系の内容を転載・要約した記事。フィービー・テソリエールさんの経緯、AIに症状を入力した流れ、遺伝子検査で確定した点の確認に使用
    https://www.pslhub.org/blogs/entry/9724-chatgpt-uncovered-womans-rare-condition-after-years-of-misdiagnosis/
  3. 症状の具体例や、2025年8月に複雑型四肢型のHSPと診断されたという補足情報の確認に使用
    https://www.ladbible.com/news/health/anxiety-chatgpt-health-diagnosis-phoebe-tesoriere-hsp-410723-20260407
  4. HSP(遺伝性痙性対麻痺)の基礎説明。NHSによる一般向け解説
    https://www.nhs.uk/conditions/hereditary-spastic-paraplegia/
  5. HSPの定義と進行性の神経疾患であることの確認。米国NINDSの解説
    https://www.ninds.nih.gov/health-information/disorders/hereditary-spastic-paraplegia
  6. HSPが遺伝性・進行性の神経疾患群であることの補足確認。米国GARDの解説
    https://rarediseases.info.nih.gov/diseases/6637/hereditary-spastic-paraplegia
  7. AIの医療相談リスクに関するオックスフォード大学の発表。「良い情報と悪い情報が混在し、利用者が見分けにくい」点の確認に使用
    https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice
  8. 同じオックスフォード研究の補足。質問のわずかな違いで回答が変わる点などの確認に使用
    https://www.oii.ox.ac.uk/news-events/new-study-warns-of-risks-in-ai-chatbots-giving-medical-advice/
  9. オックスフォード研究を報じたReuters記事。現実の意思決定でAI利用者が大きな優位を示さなかった点の確認に使用
    https://www.reuters.com/business/healthcare-pharmaceuticals/ai-no-better-than-other-methods-patients-seeking-medical-advice-study-shows-2026-02-09/
  10. OpenAIの公式説明。健康領域でのAIは医療を支援するもので、診断や治療の代替ではないという方針確認に使用
    https://openai.com/index/introducing-chatgpt-health/
  11. SNS反応の確認に使用したLinkedIn投稿。慎重な肯定論とコメント欄の共感反応の参照元
    https://www.linkedin.com/posts/anilvanderzee_chatgpt-diagnoses-cardiff-womans-rare-condition-activity-7448414384688861184-JEaN
  12. SNS反応の確認に使用したX投稿検索結果。医療対応への怒りや懐疑的な受け止め方の確認に使用
    https://x.com/Miroandrej/status/2042668305190948993
  13. SNS反応の確認に使用したX投稿検索結果。精神医療ラベルの扱われ方への批判的反応の確認に使用
    https://x.com/senmum05