Un malaise ignoré par les médecins, détecté par l'IA - Une femme mal diagnostiquée pendant des années découvre le "véritable nom de sa maladie" grâce à l'IA

Un malaise ignoré par les médecins, détecté par l'IA - Une femme mal diagnostiquée pendant des années découvre le "véritable nom de sa maladie" grâce à l'IA

« L'IA a découvert une maladie rare chez une femme ». En lisant seulement ce titre, cela pourrait donner l'impression que le chatbot est plus compétent qu'un médecin. Cependant, l'essence de cet événement réside non pas dans l'omnipotence de l'IA, mais dans le fait que les plaintes de la patiente n'ont pas été prises en compte pendant des années. Phoebe Tesoriere, une jeune femme de 23 ans vivant à Cardiff, au Pays de Galles, a souffert de symptômes tels que des troubles de la marche, des anomalies sensorielles, une incontinence et des réflexes anormaux, tout en recevant divers diagnostics d'anxiété, de dépression et d'épilepsie. Même après avoir vécu des jours de coma après une crise, elle n'a pas obtenu de réponse satisfaisante.

Selon les rapports, après de nombreuses visites aux urgences, elle a été informée qu'elle pourrait être traitée comme une patiente psychiatrique si elle continuait à consulter. Ce qui a choqué beaucoup de gens, ce n'est pas que l'IA ait trouvé la réponse, mais plutôt que cette patiente avec des symptômes aussi complexes et graves ait failli être cataloguée comme souffrant de problèmes mentaux. Dans le domaine médical, plus une maladie est rare, plus elle est difficile à diagnostiquer. Cependant, ne pas pouvoir la diagnostiquer n'est pas la même chose que de minimiser les plaintes. Cette distinction est la raison pour laquelle cette histoire ne se termine pas simplement comme un conte technologique.

Le tournant est survenu lorsqu'elle a saisi ses symptômes dans un chatbot IA. Le chatbot a suggéré, parmi plusieurs possibilités, la paraplégie spastique héréditaire (HSP). Elle a apporté cette possibilité à son médecin généraliste, et le diagnostic a été confirmé par un test génétique. En fin de compte, ce n'est pas l'IA qui a confirmé le diagnostic, mais une institution médicale. Cependant, il est certain que l'IA a fourni une base pour que la patiente puisse consulter son médecin avec une hypothèse en tête.

L'HSP est un groupe de maladies héréditaires rares et progressives caractérisées par une faiblesse musculaire et une raideur des jambes, ainsi que des troubles de la marche. Il en existe de nombreux types, simples et complexes, et les formes complexes peuvent également affecter les membres supérieurs, les sensations, la fonction urinaire et d'autres symptômes neurologiques. Le NHS et le NINDS américain décrivent l'HSP comme une « maladie neurologique héréditaire rare et progressive », difficile à diagnostiquer et à distinguer d'autres maladies. C'est pourquoi ce cas ne doit pas être vu comme une simple opposition entre des médecins incompétents et une IA compétente, mais comme un problème de comment les patients peuvent se protéger dans un contexte de temps de consultation limité et de complexité des maladies rares.

Ce qui est important ici, c'est que l'IA n'a pas « diagnostiqué », mais « organisé des hypothèses ». Les humains ne peuvent pas toujours expliquer les anomalies de leur corps en termes médicaux. De plus, lorsque plusieurs symptômes surviennent simultanément, ils sont souvent traités comme des problèmes distincts, rendant difficile la compréhension de l'ensemble. Le chatbot IA peut rassembler ces fragments et renvoyer une liste de diagnostics possibles. La valeur résidait non seulement dans le fait qu'une maladie rare figurait sur cette liste, mais aussi dans le fait que la patiente pouvait exprimer son souhait de se faire examiner dans cette direction. L'IA n'a pas remplacé la médecine, mais a fonctionné comme une ligne de soutien pour accéder aux soins médicaux.

L'histoire s'est largement répandue sur les réseaux sociaux car sa structure résonnait avec l'expérience de nombreuses personnes. Sur LinkedIn, en plus d'une approbation prudente disant « L'IA peut être erratique mais parfois utile », des voix de personnes concernées ont également été entendues, affirmant que pour des maladies comme le ME/CFS, l'IA avait parfois donné des réponses plus précises que les médecins. D'un autre côté, l'opinion selon laquelle « l'IA peut offrir beaucoup... si elle est utilisée avec précaution » était également notable. Le centre de la discussion n'était pas une adulation de l'IA, mais l'empathie des personnes ayant vécu des expériences où elles n'ont pas été bien écoutées dans le domaine médical.

 

Sur X, des réactions encore plus émotionnelles ont été observées. Un post a exprimé sa colère envers la réponse médicale elle-même, en se demandant si l'étiquette de maladie mentale n'était pas abusée. Une autre réaction a souligné que ce qui était autrefois appelé « Dr. Google » est maintenant en train d'être remplacé par « Dr. IA ». Ainsi, les réseaux sociaux perçoivent cet événement non pas simplement comme une nouvelle technologique, mais dans le contexte de problèmes sociaux plus larges tels que la méfiance envers le système médical, la tendance à minimiser les symptômes des femmes, et la nécessité pour les patients de se défendre eux-mêmes.

Cependant, il est dangereux de se laisser emporter par l'enthousiasme. Une étude publiée par l'Université d'Oxford en février 2026 a révélé que les participants utilisant l'IA pour des conseils de santé ne montraient pas d'avantage clair dans la prise de décision réelle par rapport à ceux utilisant des recherches traditionnelles ou le site du NHS. L'une des raisons est que les utilisateurs ne peuvent pas toujours saisir suffisamment d'informations nécessaires. Une autre raison est que les réponses de l'IA mélangent de bonnes et de mauvaises informations, rendant difficile pour les utilisateurs de les distinguer. Le fait que les réponses puissent changer considérablement avec une légère modification de la formulation des questions a également été souligné comme un problème. En d'autres termes, l'IA peut parfois fournir des indices, mais elle ne constitue pas un dispositif de décision sûr à elle seule.

OpenAI elle-même explique que l'IA dans le domaine de la santé est destinée à soutenir la médecine et non à remplacer le diagnostic ou le traitement. C'est à la fois une déclaration prudente de l'entreprise et une perspective importante pour comprendre ce cas. Le cas de Phoebe ne doit pas être lu comme un exemple où l'IA a pris le dessus sur la médecine, mais comme un exemple où la patiente a enfin trouvé un « détour » pour accéder aux soins médicaux. Ainsi, la question posée par cet événement n'est pas seulement « Devrait-on utiliser davantage l'IA pour le diagnostic ? », mais aussi « Pourquoi la patiente n'a-t-elle pas été écoutée avant d'en arriver là ? ».

Avec l'entrée de l'IA dans le domaine médical, un nouvel outil est né pour les patients. Il aide à organiser les symptômes, à connaître le jargon médical, et à réfléchir aux prochaines questions à poser au médecin. Cependant, cet outil peut également renforcer la désinformation et les idées fausses. Si cet événement est simplement consommé comme un « miracle où ChatGPT a détecté une maladie », nous risquons de perdre ce qu'il y a vraiment à apprendre. Ce qui est nécessaire, ce n'est ni une foi aveugle en l'IA ni une négation totale. C'est de créer une relation où la médecine écoute plus tôt et plus attentivement les voix des patients, et où l'IA sert d'outil de soutien à ce dialogue.

Le protagoniste de cette histoire n'est pas l'IA, mais une patiente qui a continué à souffrir sans réponse et qui n'a jamais abandonné face aux anomalies de son corps. L'IA n'a fait que donner des mots à cette ténacité. Cependant, parfois, il suffit d'obtenir la bonne question pour enfin accéder aux soins médicaux appropriés. Dans ce sens, cet événement devrait être mémorisé non pas comme une victoire de l'IA, mais comme un moment où une « voix non entendue » a enfin été visualisée.


URL de la source

  1. https://g1.globo.com/tecnologia/noticia/2026/04/14/como-chatbot-de-ia-descobriu-condicao-rara-de-mulher-apos-anos-de-diagnosticos-errados.ghtml
  2. Article réimprimé et résumé du contenu de la BBC. Utilisé pour confirmer le parcours de Phoebe Tesoriere, l'entrée des symptômes dans l'IA, et la confirmation par test génétique.
    https://www.pslhub.org/blogs/entry/9724-chatgpt-uncovered-womans-rare-condition-after-years-of-misdiagnosis/
  3. Utilisé pour vérifier des exemples spécifiques de symptômes et l'information supplémentaire selon laquelle elle a été diagnostiquée avec une HSP complexe des membres en août 2025.
    https://www.ladbible.com/news/health/anxiety-chatgpt-health-diagnosis-phoebe-tesoriere-hsp-410723-20260407
  4. Explication de base de l'HSP (paraplégie spastique héréditaire). Explication générale par le NHS.
    https://www.nhs.uk/conditions/hereditary-spastic-paraplegia/
  5. Vérification de la définition de l'HSP et confirmation qu'il s'agit d'une maladie neurologique progressive. Explication par le NINDS américain.
    https://www.ninds.nih.gov/health-information/disorders/hereditary-spastic-paraplegia
  6. Vérification supplémentaire que l'HSP est un groupe de maladies neurologiques héréditaires et progressives. Explication par le GARD américain.
    https://rarediseases.info.nih.gov/diseases/6637/hereditary-spastic-paraplegia
  7. Publication de l'Université d'Oxford sur les risques des consultations médicales avec l'IA. Utilisé pour confirmer le point selon lequel « de bonnes et de mauvaises informations coexistent, rendant difficile pour les utilisateurs de les distinguer ».
    https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice
  8. Complément de la même étude d'Oxford. Utilisé pour vérifier le point selon lequel une légère différence dans la formulation des questions peut changer considérablement les réponses.
    https://www.oii.ox.ac.uk/news-events/new-study-warns-of-risks-in-ai-chatbots-giving-medical-advice/
  9. Article de Reuters rapportant l'étude d'Oxford. Utilisé pour confirmer que les utilisateurs d'IA n'ont pas montré de grande supériorité dans la prise de décision réelle.
    https://www.reuters.com/business/healthcare-pharmaceuticals/ai-no-better-than-other-methods-patients-seeking-medical-advice-study-shows-2026-02-09/
  10. Explication officielle d'OpenAI. Utilisé pour confirmer la politique selon laquelle l'IA dans le domaine de la santé est destinée à soutenir la médecine et non à remplacer le diagnostic ou le traitement.
    https://openai.com/index/introducing-chatgpt-health/
  11. Publication LinkedIn utilisée pour vérifier les réactions sur les réseaux sociaux. Source de référence pour l'approbation prudente et les réactions empathiques dans les commentaires.
    https://www.linkedin.com/posts/anilvanderzee_chatgpt-diagnoses-cardiff-womans-rare-condition-activity-7448414384688861184-JEaN
  12. Résultats de recherche de publications sur X utilisés pour vérifier les réactions sur les réseaux sociaux. Utilisé pour confirmer la colère envers la réponse médicale et la réception sceptique.
    https://x.com/Miroandrej/status/2042668305190948993
  13. Résultats de recherche de publications sur X utilisés pour vérifier les réactions sur les réseaux sociaux. Utilisé pour confirmer les réactions critiques envers la gestion des étiquettes de maladies mentales.
    https://x.com/senmum05