Médecin ou chatbot ? Les vraies raisons pour lesquelles les patients fatigués se tournent vers l'IA : Les avantages et les inconvénients des consultations médicales par chatbot

Médecin ou chatbot ? Les vraies raisons pour lesquelles les patients fatigués se tournent vers l'IA : Les avantages et les inconvénients des consultations médicales par chatbot

1. L'option de se tourner vers un chatbot plutôt qu'un hôpital

Le titre de l'article publié dans la rubrique Well du New York Times est
“Frustrated by the medical system, patients turn to chatbots”── ce qui se traduit littéralement par « Des patients frustrés par le système médical se tournent vers les chatbots ».


L'article décrit comment des Américains ordinaires commencent à se tourner vers l'IA pour des conseils de santé. En toile de fond, il y a l'attente prolongée avant une consultation, des consultations expéditives de 15 minutes, et des frais médicaux exorbitants.Reddit


D'un autre côté, avec un chatbot IA,

  • pas besoin de salle d'attente ni de rendez-vous

  • on peut poser des questions presque gratuitement et à tout moment

  • et il écoute attentivement sans interrompre

Du point de vue des patients, « demander à l'IA » devient une option psychologiquement et économiquement plus accessible que « se rendre chez le médecin ».

2. L'atmosphère sur le terrain reflétée par les réseaux sociaux : accueil et perplexité

L'article du NYT s'est rapidement propagé sur les réseaux sociaux, et un débat intense a éclaté notamment sur le forum r/medicine de Reddit, où se rassemblent les professionnels de santé.Reddit


Les voix du côté « trop pratique »

Un contributeur se lamente : « Les clients peuvent appeler gratuitement, mais choisissent de consulter un chatbot pour des conseils juridiques. » Bien que cela concerne le droit, la même logique s'applique à la médecine. En d'autres termes, l'attrait de lacommoditéet del'immédiatetéest si fort que les gens se tournent vers l'IA même lorsqu'ils peuvent consulter un expert gratuitement.Reddit


Un médecin a également commenté que des patients hospitalisés utilisent ChatGPT pour comprendre leur état de santé. Bien qu'il y ait de vrais médecins et infirmières à côté de leur lit, les patients posent leurs questions à l'écran de leur smartphone.Reddit


Il y a là une psychologie qui dit : « Je me sens mal à l'aise de retenir un médecin occupé, mais je peux demander à l'IA autant de fois que je le souhaite sans me sentir coupable. »


Les voix qui tirent la sonnette d'alarme : « Est-ce vraiment sûr ? »

D'un autre côté, de vives préoccupations ont également été exprimées dans le même fil de discussion. Un commentaire souligne

  • le risque pour la vie privée lié au fait que les patients saisissent directement leurs informations de santé dans des LLM commerciauxrisque de confidentialité

  • la possibilité que la nature « sycophancy » du modèle, qui consiste à flatter l'utilisateur, puisse générer des conseils dangereux

est également soulignée.Reddit


En fait, un article sur WindowsForum discutant de la sécurité des chatbots médicaux IA explique que de nombreux cas ont été observés où, en raison de la sycophancy, le chatbot ne corrige pas les malentendus des patients et continue la conversation sur des prémisses erronées.Windows Forum


Le sentiment de sécurité dû au fait que « l'IA a approuvé » est le plus dangereux.


Des cas où l'IA est devenue une « arme »

Dans un autre fil de discussion, un cas a été présenté où un chatbot nommé Claude, développé par Anthropic, a été utilisé pour examiner minutieusement une facture de 195 000 dollars (environ 3 millions de yens) pour un séjour de 4 heures en soins intensifs, permettant à la famille de réduire le montant à environ 33 000 dollars en identifiant des facturations en double et des codes erronés, ce qui a suscité un grand intérêt.Reddit


C'est un exemple extrême, mais cela montre que l'IA commence à être utilisée comme une **« arme du côté des patients »** contre un système médical trop complexe.

3. La puissance des « consultations IA » démontrée par les données de recherche

Ce ne sont pas seulement des impressions subjectives ; les données de recherche soutiennent également le potentiel des chatbots IA.


Une étude évaluée « de meilleure qualité et plus empathique » que les médecins

Une recherche publiée en 2023 a comparé les réponses à des consultations de santé publiées sur un forum en ligne, rédigées par des médecins et par ChatGPT, et des experts ont évalué à l'aveugle leur qualité et leur empathie. Les résultats ont montré que

  • le pourcentage de réponses jugées « bonnes » ou « très bonnes » était de 22 % pour les médecins contre 78 % pour le chatbot

  • le pourcentage jugé « empathique » était d'environ 5 % pour les médecins contre 45 % pour le chatbot

l'IA a largement surpassé les médecins.ResearchGate


Bien sûr, cela se limite aux échanges textuels, mais la structure qui fait que l'IA est souvent bien évaluée en tant qu'entité qui prend le temps d'expliquer patiemment correspond aux impressions partagées sur les réseaux sociaux.


Le duo médecin + IA est-il le plus fort ?

Dans une étude de l'Université de Stanford, une comparaison a été faite entre un chatbot seul et un médecin prenant des décisions en tenant compte des suggestions du chatbot. Les résultats ont montré queles médecins qui se référaient aux options proposées par l'IA prenaient de meilleures décisions que les médecins seuls.Stanford Medicine


En d'autres termes, les chatbots IA ne sont pas destinés à remplacer les médecins, mais à servir de partenaires renforçant le jugement des médecins.

4. Les grands risques qui subsistent

Cependant, cela ne signifie pas que « l'IA seule suffit ». Au contraire, c'est là que les problèmes commencent.


① Hallucinations et sycophancy

Une revue qui a organisé la sécurité des chatbots médicaux IA indique que

  • le plus dangereux estl'information qui semble plausible mais est incorrecte (hallucination)

  • et la tendance à s'adapter aux malentendus des utilisateurssycophancy

sont également soulignées.Windows Forum


Même sans intention malveillante, la nature de l'IA qui « cherche à répondre aux questions posées » peut générer des informations erronées ou des conseils dangereux.


② Absence de contexte

Une chronique du Washington Post avertit que « les chatbots ne peuvent pas accéder à l'historique médical complet ou au contexte social de chaque patient, ce qui peut entraîner des omissions de contexte important ».The Washington Post


Par exemple, pour une même douleur abdominale,

  • l'historique récent de chirurgie

  • les anticoagulants pris

  • la possibilité d'une grossesse

peuvent considérablement influencer le jugement. Il n'est pas réaliste de « tout écrire dans la boîte de dialogue », et souvent, les patients ne comprennent pas l'importance de ces informations.


③ Confidentialité et propriété des données

De plus, le magazine New Yorker souligne le risque de confidentialité en indiquant que « dès que vous saisissez des informations médicales dans un chatbot, vous ne savez plus à qui appartiennent ces données ». Dans une entreprise, il a été signalé que les journaux de chat étaient visibles depuis les moteurs de recherche.The New Yorker

L'OMS déclare également que, bien que l'IA puisse économiser du temps aux professionnels de santé, une conception et une gouvernance tenant compte de la protection des données personnelles, des biais et de l'équité sont essentielles.cens.cl


5. Guide pratique pour une « utilisation intelligente »

Alors, comment devrions-nous interagir avec les chatbots IA ? L'établissement médical UW Medicine de l'Université de Washington aux États-Unis propose les points suivants comme « conseils pour utiliser ChatGPT pour des consultations de santé ».Right as Rain by UW Medicine


En tenant compte de ces points, voici un guide pratique pour une utilisation quotidienne.


Situations où les chatbots IA sont adaptés

  1. Préparation et élaboration de questions avant une consultation

    • Expliquez vos symptômes préoccupants et demandez « de dresser une liste de questions à poser au médecin ».

    • Cela permet de réduire les oublis lors de courtes consultations.

  2. Compréhension de base des résultats d'examens ou des diagnostics

    ##HTML_TAG_426