L'IA peut-elle entrer dans le cabinet médical ? Un médecin parle des "endroits où l'utiliser / endroits à éviter"

L'IA peut-elle entrer dans le cabinet médical ? Un médecin parle des "endroits où l'utiliser / endroits à éviter"

1) Les médecins ne sont pas contre l'IA. Le problème est "l'IA qui parle directement aux patients"

Ce que TechCrunch a décrit n'est pas un conflit "médecin VS IA". Au contraire, tant les médecins que les investisseurs voient l'IA comme une solution pour améliorer l'inefficacité du système de santé. Ce qui est préoccupant, c'est que dès que l'IA devient l'**interface avec les patients**, les questions de responsabilité et de sécurité deviennent soudainement plus lourdes.


Dans le post de TechCrunch sur LinkedIn, les préoccupations ne portaient pas sur "l'IA elle-même", mais sur le fait que lorsque l'IA commence à interagir avec les patients, la question de la responsabilité devient floue. Le domaine médical est un monde où quelqu'un doit assumer la responsabilité légale, éthique et clinique si les résultats sont mauvais.



2) Un chiffre fort comme "45% d'embolie pulmonaire" peut fausser le diagnostic

Le Dr Sina Bari, chirurgien et leader dans le domaine de l'IA médicale, raconte son expérience choquante avec une réponse générée par l'IA apportée par un patient. Le médicament recommandé était accompagné d'un chiffre de "45% de probabilité d'embolie pulmonaire", mais après vérification, il s'est avéré provenir d'une étude sur un groupe limité de patients atteints de tuberculose, ce qui ne s'appliquait pas à ce patient.


C'est là que réside la peur des chatbots médicaux.
Les chiffres médicaux changent de sens en fonction du groupe cible, des conditions et des hypothèses. Pourtant, **"les chiffres sont puissants"**. Les patients deviennent anxieux, et les médecins doivent commencer par "corriger les malentendus". Plus l'erreur est affirmée avec confiance (ce qu'on appelle une hallucination), plus les coûts de communication et les risques augmentent.



3) Pourquoi le Dr Bari a-t-il quand même de l'espoir pour "ChatGPT Health"

Ce qui est surprenant, c'est que même après cette expérience, le Dr Bari a exprimé plus d'espoir que de préoccupations pour ChatGPT Health d'OpenAI. La raison est simple :les patients consultent déjà l'IA pour des conseils de santé. Il est donc préférable de préparer un espace plus privé et des mesures de protection, et de "institutionnaliser" en toute sécurité en s'adaptant à la réalité.


ChatGPT Health vise à séparer les conversations dans le domaine de la santé dans un espace dédié et, selon les explications d'OpenAI, à ne pas utiliser ces conversations pour l'apprentissage du modèle de base. Il est également prévu d'améliorer la personnalisation en permettant le téléchargement de dossiers médicaux et l'intégration avec Apple Health ou MyFitnessPal.



4) "Ne l'utilisez pas car c'est dangereux" ne fonctionne pas face à une attente de 3 à 6 mois

Le Dr Nigam Shah de Stanford montre que le débat sur l'IA médicale ne peut pas être réduit à la seule "précision". Dans un contexte où attendre 3 à 6 mois pour une consultation de soins primaires n'est pas rare, il pose la question : "Attendre six mois pour voir un vrai médecin ou parler à quelqu'un qui n'est pas médecin mais peut faire quelque chose ?"


Ce point de vue est crucial. Si l'accès aux soins médicaux est suffisant, on peut choisir de ne pas utiliser l'IA car elle est dangereuse. Mais pour ceux qui ne peuvent pas consulter ou pour qui c'est trop tard, l'IA s'impose comme **"mieux que rien"**. Ainsi, le débat se déplace de "peut-on interdire l'IA" àcomment concevoir et instituer des systèmes pour réduire les accidents.



5) Le raccourci pour l'IA médicale est de "récupérer le temps des médecins" plutôt que de "remplacer les patients"

La voie réaliste indiquée par le Dr Shah est l'adoption du côté des **fournisseurs de soins de santé** plutôt que des chats pour les patients. Dans les soins primaires, il est souligné que les tâches administratives prennent environ la moitié du temps des médecins. Si cela pouvait être automatisé, le nombre de patients traités pourrait augmenter et la pression pour que les patients se tournent vers des "IA médecins de substitution" pourrait diminuer.


ChatEHR, développé par Stanford, vise à rendre l'exploration des informations dans les dossiers médicaux électroniques interactive, réduisant ainsi le "temps de recherche" des médecins pour le convertir en "temps de discussion avec les patients".


Dans le même contexte, Claude for Healthcare d'Anthropic est également expliqué comme pouvant raccourcir des tâches "fastidieuses mais essentielles" comme l'autorisation préalable. Lors des explications aux parties concernées, il est mentionné que cela pourrait économiser 20 à 30 minutes par cas, ce qui, accumulé, représente un gain de temps considérable.



6) Confidentialité : Que se passe-t-il une fois que vous sortez du cadre de la HIPAA

Lorsque les patients transmettent leurs dossiers médicaux à un chatbot, les données quittent le domaine de gestion de l'hôpital et le cadre de protection peut changer. Itai Schwartz, cofondateur d'une entreprise de protection contre les fuites de données, s'inquiète du transfert des données médicales d'une organisation conforme à la HIPAA vers un fournisseur non conforme, et surveille la réponse des régulateurs.


Cette inquiétude est également forte sur les réseaux sociaux. Dans les discussions sur Hacker News, on observe des préoccupations sur le fait que "les données de santé pourraient être en dehors de la HIPAA et potentiellement connectées à une monétisation future (assurance, emploi, etc.)", ainsi que des plaintes sur la complexité des paramètres qui font que l'on "partage sans s'en rendre compte".


D'un autre côté, OpenAI explique que Health n'est pas un substitut aux soins médicaux mais un soutien, et adopte une conception de protection dédiée. Pour gagner la confiance, cela doit être "vérifiable" non seulement par des "promesses d'entreprise", mais aussi par des audits, des réglementations et de la transparence.



7) Réactions sur les réseaux sociaux : Les opinions sont partagées, mais les enjeux sont à peu près les mêmes

Sur **LinkedIn (autour du post de TechCrunch)**, l'idée selon laquelle "les IA qui assistent les médecins dans le diagnostic ou la documentation sont bien accueillies, mais celles qui interagissent directement avec les patients rendent la responsabilité floue" a reçu du soutien. En résumé, il s'agit moins de "commodité" que de "l'emplacement de la responsabilité" qui suscite des inquiétudes.


Sur Hacker News, la différence de température est encore plus grande.
Un groupe partage des expériences où cela a aidé à comprendre les résultats des tests ou à se préparer à la communication avec le médecin, affirmant que "la réglementation est nécessaire mais la valeur ne doit pas disparaître".


Un autre groupe s'inquiète du fait que l'IA peut facilement être orientée vers une direction "consensuelle" (comme refaire une conversation pour obtenir la réponse souhaitée) et des risques d'auto-diagnostic, de surconsommation de suppléments ou de méfiance médicale. De plus, il y a des opinions fortes selon lesquelles "si cela est rendu public, une certification de sécurité indépendante doit d'abord être obtenue".


Ce conflit se résume finalement à trois points.

  1. Plus l'accès aux soins médicaux est mauvais, plus la demande d'IA augmente (difficile à arrêter)

  2. Les dommages des fausses informations se concentrent facilement sur les "personnes vulnérables" (ceux qui sont en difficulté y recourent davantage)

  3. Le pire est que la responsabilité et la confidentialité se répandent sans clarté (c'est pourquoi un cadre est nécessaire)



8) Alors, comment utiliser les chatbots médicaux pour les patients pour "réduire les accidents"

En conclusion, l'IA médicale est plus sûre lorsqu'elle est utilisée commeun soutien pour améliorer la qualité des consultations plutôt que comme un "remplacement du diagnostic".

  • Organiser les symptômes et l'évolution, prendre des notes sur les points à communiquer lors des consultations

  • Comprendre les explications générales des résultats d'examens, des médicaments et des diagnostics (mais le jugement final revient au médecin)

  • Lister les questions à poser lors de la prochaine consultation


Et du côté de la société, il est plus judicieux d'investir d'abord dans l'**IA pour les professionnels de santé (recherche dans les dossiers, tâches administratives, autorisations préalables, etc.)**, afin de réduire l'attente de "six mois".


Comme l'a dit le Dr Bari, pour protéger les patients, il est nécessaire que les professionnels de santé soient "conservateurs et prudents". L'IA médicale doit être un outil qui soutient cette prudence, et non qui la détruit.



URL de référence


Article de référence

Les médecins pensent que l'IA a un rôle à jouer dans les soins de santé, mais peut-être pas en tant que chatbot.
Source : https://techcrunch.com/2026/01/13/doctors-think-ai-has-a-place-in-healthcare-but-maybe-not-as-a-chatbot/

Propulsé par Froala Editor