« Peut-on confier ses informations médicales à ChatGPT ? » La fonctionnalité « Health » met en lumière la réalité de la confidentialité.

« Peut-on confier ses informations médicales à ChatGPT ? » La fonctionnalité « Health » met en lumière la réalité de la confidentialité.

1) Le moment où le "conseiller santé" est remplacé par une application

« Je ne peux pas bien expliquer mes symptômes », « J'ai peur de regarder les chiffres des résultats de mes tests », « Les assurances et les documents sont trop compliqués » - à l'entrée des soins médicaux, il y a une multitude d'obstacles autres que l'état de santé. C'est là qu'intervient l'IA capable de converser, permettant aux gens de se sentir immédiatement soulagés.


The Verge a mis en lumière cet espace psychologique. OpenAI a déclaré que chaque semaine, un grand nombre de consultations santé et bien-être sont effectuées, et dans ce contexte où les utilisateurs perçoivent l'IA comme un "guide dans le labyrinthe" ou un "allié", ils mettent en avant un "ChatGPT Health" plus spécialisé. Cependant, l'essentiel de l'article est le suivant : plus cela ressemble à une salle de consultation, plus les gens ont tendance à croire qu'ils bénéficient de la même protection que dans un cadre médical. Mais en réalité, c'est différent.


2) Quelles sont les fonctionnalités de ChatGPT Health ?

ChatGPT Health propose un domaine spécialisé pour les conversations sur la santé et le bien-être, et vise à fournir des réponses plus "contextuelles" en connectant les dossiers médicaux et les informations des différentes applications si nécessaire. OpenAI précise que les utilisateurs peuvent saisir, télécharger ou connecter des informations sensibles telles que les dossiers médicaux, les résultats d'examens, les informations sur les prescriptions, les données sur le rythme cardiaque, le sommeil, le nombre de pas, ainsi que les symptômes et les antécédents médicaux.


Un point important est que "Health a une fonction de mémoire unique". Pour les conversations sur la santé, il peut proposer des suggestions plus "appropriées" en tenant compte des consultations passées et des informations des applications connectées. Derrière la commodité, l'image de santé personnelle peut être accumulée de manière plus tridimensionnelle.


3) La principale raison pour laquelle on se sent "protégé" est la force des "mots de l'entreprise"

The Verge souligne qu'il ne s'agit pas d'un établissement médical. Les obligations et les sanctions strictes en cas de violation qui s'appliquent aux prestataires de soins de santé ne s'appliquent pas nécessairement de la même manière. C'est pourquoi les utilisateurs se fient aux "promesses" écrites dans les conditions d'utilisation et la politique de confidentialité.


OpenAI a au moins présenté le cadre suivant concernant Health :

  • Ne pas utiliser pour l'apprentissage (amélioration du modèle de base) : Par défaut, le contenu de Health n'est pas utilisé pour améliorer le modèle de base.

  • Cependant, il y a une possibilité d'"accès" : Pour des raisons de sécurité, les personnes autorisées ou les sous-traitants peuvent avoir accès au contenu de Health (cela dépend également des paramètres de l'utilisateur).

  • Divulgation pour sous-traitance externe ou réponse légale : Il peut y avoir une divulgation aux sous-traitants pour l'exploitation (hébergement, support, etc.), ainsi que pour des obligations légales ou la protection des droits.

  • "Partenaire tiers" pour la connexion des dossiers médicaux : Il est précisé que la connexion des dossiers médicaux électroniques utilise un partenaire tiers (b.well).

  • Déclaration de "non-vente" : Il est déclaré que les données personnelles obtenues via Health ne seront pas vendues.

  • Mises à jour futures : Les notifications peuvent être mises à jour.


C'est ici que naît le problème de "confiance dans les mots" mentionné par The Verge. Même si la promesse est un progrès, dans une situation où il n'y a pas de contrainte ou de supervision légale équivalente, il reste un pari de "croire ou ne pas croire".


4) Un autre piège : le problème des noms trop similaires

The Verge met en garde spécifiquement contre le fait que ChatGPT Health pour les consommateurs et ChatGPT for Healthcare pour les établissements médicaux et les entreprises ont des noms et un timing similaires. Il est dit que cela a causé des confusions lors des interviews.


Dans OpenAI for Healthcare pour les entreprises, la gestion des données des patients, les journaux d'audit, la gestion des clés de cryptage, et les contrats pour soutenir la conformité HIPAA (BAA) sont mis en avant pour être "sous le contrôle de l'organisation".

 
D'un autre côté, Health pour les consommateurs a une prémisse différente, même s'il s'agit de "santé". Si cela est mal compris, seule l'attente de "protection comme dans un établissement médical" pourrait s'emballer.


5) Le risque n'est pas seulement la vie privée. La "ressemblance médicale" peut conduire à une confiance excessive

The Verge aborde "la médecine en tant qu'industrie réglementée" et souligne le danger que les chatbots renvoient des informations erronées avec confiance dans un domaine où les erreurs peuvent être fatales. Des cas où des suggestions erronées ont conduit à des dommages pour la santé ont été rapportés.


Ce qui est encore plus problématique, c'est que l'expression de non-responsabilité **"ce n'est pas à des fins de diagnostic ou de traitement" coexiste facilement avec l'utilisation "pratiquement médicale" telle que "peut être utilisé pour interpréter les résultats des tests et organiser les décisions de traitement"**. L'expérience utilisateur devient une "consultation médicale", et plus les réponses de l'IA sont détaillées et personnelles, plus l'existence de la clause de non-responsabilité s'estompe.


6) Réactions sur les réseaux sociaux : bien que les réactions de rejet soient marquées, "la commodité reste la commodité"

Le sujet a suscité des réactions très directes sur les réseaux sociaux.


Le camp du "Jamais" (fort rejet)

Sur Reddit, de nombreux refus en quelques mots ont été publiés, avec des expressions comme "Oh hell naw", "Absolutely not", "Nope nope nope…" qui se distinguent par leur refus immédiat.

 
Dans le même fil, il y a beaucoup de méfiance, comme "Cela ressemble à une demande de consentement pour la collecte de données" et "La fuite fait peur".
Sur Bluesky, une ironie s'est répandue : "Offrir la confidentialité médicale pour obtenir des conseils médicaux dangereusement incertains".
Sur Mastodon, on trouve des messages disant que "Il y a de nombreux services avec lesquels il ne faut pas connecter les dossiers médicaux, mais les chatbots IA arrivent en tête".


Le camp du "Ça ressemble à de la pub / manque d'explications" (doutes sur la "manière de vendre")

Sur Hacker News, des opinions comme "Cela ressemble à de la publicité" et "Ne devraient-ils pas être poursuivis pour tromperie ?" ont été exprimées, ainsi que des remarques sur la difficulté de comprendre les paramètres de confidentialité "chat par chat".

 
En gros, avant même la fonctionnalité elle-même, on se demande si "la manière de vendre permet aux utilisateurs de reconnaître correctement les risques".

Le camp du "Utile selon l'utilisation" (utilisation réaliste)

D'un autre côté, sur Reddit, certains disent que "Cela peut être utile comme aide à l'interprétation des résultats des tests et des images. Cela permet de préparer des éléments pour consulter un médecin".
Ce groupe voit l'IA comme un outil de tri d'informations, à condition de ne pas la remplacer par un médecin. Cependant, il est une autre question de savoir si tout le monde peut respecter cette condition.


7) Alors, comment l'utiliser ? (Liste de vérification réaliste)

Il est facile de dire "ne l'utilisez pas", mais en réalité, beaucoup de gens "l'utilisent déjà". Dans ce cas, il est nécessaire d'avoir au moins des lignes directrices.

  • Évitez de transmettre intégralement les dossiers médicaux : Commencez par essayer avec des informations "anonymisées et résumées". Soyez prudent avec les noms de diagnostic, les noms d'hôpitaux, les identifiants de patients, les images elles-mêmes, etc.

  • Comprenez l'étendue des "applications connectées / tiers" : Health est basé sur l'intégration d'applications externes, et des partenaires tiers sont impliqués dans la connexion des dossiers médicaux. Les conditions d'utilisation des destinations de connexion sont différentes.

  • "Ne pas utiliser pour l'apprentissage" n'est pas une carte universelle : Ne pas utiliser pour l'apprentissage et la possibilité d'accès / divulgation pour l'exploitation, la sécurité et la réponse légale peuvent coexister.

  • Ne remplacez pas les "décisions de diagnostic et de traitement" : Les suggestions de l'IA doivent se limiter à une liste de questions ou à un tri des points à apporter à un médecin.

  • Ne pas confondre : Le cadre pour les établissements médicaux (soutien HIPAA, BAA, etc.) et la prémisse de Health pour les consommateurs sont différents.


8) Conclusion : Plus la commodité augmente, plus "la ligne de démarcation" devient importante

Pour résumer l'argument de The Verge en une phrase : "Ne confondez pas une 'expérience médicale' avec une protection équivalente à celle des soins médicaux".
ChatGPT Health peut aider à comprendre et à préparer les informations de santé, mais les données traitées sont trop lourdes. Les réactions de rejet sur les réseaux sociaux sont fortes parce que l'on imagine d'abord "l'irréparable" avant la "commodité".


En fin de compte, la question n'est pas de savoir si "l'IA est intelligente", mais si "ce service remplit ses responsabilités pour gagner une confiance équivalente à celle des soins médicaux", et "jusqu'où nous sommes prêts à aller". Dans une époque où la commodité nous attire, il est nécessaire de "tracer sa propre ligne de démarcation".



Sources