La incomodidad que los médicos pasaron por alto y que la IA detectó: una mujer diagnosticada erróneamente durante años finalmente encuentra el "verdadero nombre de su enfermedad" gracias a la IA.

La incomodidad que los médicos pasaron por alto y que la IA detectó: una mujer diagnosticada erróneamente durante años finalmente encuentra el "verdadero nombre de su enfermedad" gracias a la IA.

"La IA descubrió una enfermedad rara en una mujer". Al ver solo este titular, podría parecer una historia en la que un chatbot supera a un médico. Sin embargo, la esencia de este evento radica no tanto en la omnipotencia de la IA, sino en el hecho de que las quejas de la paciente no fueron atendidas de frente durante años. Phoebe Tesoriere, de 23 años, residente en Cardiff, Gales, Reino Unido, sufrió durante mucho tiempo síntomas como dificultades para caminar, anomalías sensoriales, incontinencia y reflejos anormales, mientras recibía múltiples diagnósticos como ansiedad, depresión y epilepsia. Incluso después de experimentar un coma de varios días tras una convulsión, no pudo obtener una respuesta satisfactoria.

Según los informes, después de numerosas visitas a urgencias, se le sugirió que si continuaba asistiendo, podría ser tratada como una paciente psiquiátrica. Lo que impactó a muchos no fue que la IA acertara, sino que una paciente con síntomas tan complejos y graves estuviera a punto de ser encasillada como "imaginaciones" o "problemas mentales". En el ámbito médico, las enfermedades raras son difíciles de detectar. Sin embargo, no detectar algo no es lo mismo que tratar las quejas a la ligera. Esta diferencia es la razón por la que esta historia no se limita a ser una simple oda a la tecnología.

El punto de inflexión fue cuando ella ingresó sus síntomas en un chatbot de IA. El chatbot sugirió, entre varias posibilidades, la Paraplejía Espástica Hereditaria (HSP, por sus siglas en inglés). Ella llevó esta posibilidad a su médico de cabecera, y una prueba genética posterior confirmó el diagnóstico. En otras palabras, no fue la IA quien finalmente confirmó la enfermedad, sino una institución médica. Sin embargo, es cierto que la IA proporcionó el punto de partida para que la paciente pudiera consultar a su médico sobre esta enfermedad.

La HSP es un grupo de enfermedades hereditarias raras y progresivas que se caracterizan por debilidad y rigidez muscular en las piernas, así como dificultades para caminar. Hay muchos tipos, incluidos los simples y los complejos. En el tipo complejo, pueden presentarse síntomas neurológicos adicionales, como afectación de las extremidades superiores, funciones sensoriales y urinarias. Tanto el NHS como el NINDS de EE. UU. describen la HSP como una "enfermedad neurológica hereditaria rara y progresiva", señalando que es difícil de diagnosticar y puede ser confundida con otras enfermedades. Por eso, este caso no debe verse como una simple oposición de "médicos incompetentes y IA competente", sino como un problema de cómo los pacientes pueden protegerse en un contexto de tiempo limitado de consulta y la dificultad de las enfermedades raras.

Lo importante aquí es que la IA no "diagnosticó", sino que "organizó hipótesis". Los humanos no siempre pueden describir en términos médicos lo que ocurre en sus cuerpos. Además, cuando varios síntomas ocurren simultáneamente, cada uno puede ser tratado como un problema separado, dificultando ver el panorama completo. El chatbot de IA puede reunir esos fragmentos y devolver una lista de posibles enfermedades. Lo valioso en esta ocasión fue que, más allá de que una enfermedad rara estuviera en la lista, la paciente pudo verbalizar "quiero que me examinen en esta dirección". No reemplazó a la medicina, sino que funcionó como una línea de apoyo para acceder a la atención médica.

Esta historia se difundió ampliamente en las redes sociales porque su estructura resonó con la experiencia de muchas personas. En LinkedIn, además de una cautelosa afirmación de que "la IA a veces es útil aunque también puede ser errónea", hubo testimonios de personas que afirmaron que, en enfermedades como el ME/CFS, la IA había proporcionado respuestas más precisas que los médicos. Por otro lado, también se destacó la opinión de que "la IA puede ofrecer mucho... si se usa con cuidado". El centro de la discusión no fue la alabanza a la IA, sino la empatía de personas que han tenido experiencias de no ser escuchadas adecuadamente en el ámbito médico.

 

En X, se observaron reacciones aún más emocionales. Un comentario expresó su enojo hacia la atención médica, sugiriendo que las etiquetas de enfermedades mentales se estaban utilizando en exceso. Otra reacción señaló que lo que antes se llamaba "Dr. Google" ahora se está convirtiendo en "Dr. IA". En otras palabras, las redes sociales no ven este evento solo como una noticia tecnológica, sino en el contexto de problemas sociales más amplios, como la desconfianza médica, la tendencia a minimizar los síntomas de las mujeres y la necesidad de autodefensa de los pacientes.

Sin embargo, es peligroso dejarse llevar por el entusiasmo. Un estudio de la Universidad de Oxford publicado en febrero de 2026 mostró que los participantes que usaron IA para consultas de salud no demostraron una ventaja clara en la toma de decisiones reales en comparación con aquellos que usaron búsquedas tradicionales o el sitio del NHS. Una de las razones fue que los usuarios no pudieron ingresar suficiente información necesaria. Otra fue que las respuestas de la IA mezclaban buena y mala información, dificultando que los usuarios las distinguieran. También se señaló como un problema que una ligera variación en la formulación de la pregunta podía cambiar drásticamente la respuesta. Es decir, la IA a veces ofrece pistas, pero eso no la convierte en un dispositivo de juicio seguro por sí solo.

La propia OpenAI también explica que la IA en el campo de la salud "apoya la medicina, pero no es un sustituto del diagnóstico o tratamiento". Esta es una declaración de posición cautelosa como empresa y también un punto de vista importante para interpretar el caso actual. El caso de Phoebe no debe leerse como un ejemplo de que la IA se puso por encima de la medicina, sino como un ejemplo de cómo la paciente finalmente encontró una "ruta alternativa" para acceder a la atención médica. Por lo tanto, la pregunta que plantea este evento no es solo "¿deberíamos usar más la IA para el diagnóstico?", sino también "¿por qué los pacientes no fueron escuchados hasta que hicieron tanto esfuerzo?".

La inclusión de la IA en la medicina ha proporcionado una nueva herramienta para los pacientes. Ayuda a organizar los síntomas, conocer la terminología especializada y pensar en qué preguntas hacerle al médico a continuación. Sin embargo, al mismo tiempo, esa herramienta también puede convertirse en una espada que refuerza la desinformación o las ideas preconcebidas. Si este caso se consume solo como el "milagro de que ChatGPT detectó una enfermedad", se perderá lo que realmente se debe aprender. Lo necesario no es una fe ciega en la IA ni una negación total. Lo que se necesita es una medicina que escuche las voces de los pacientes más rápido y con más atención, y una IA como herramienta de apoyo para ese diálogo. Cómo construir esa relación será el próximo punto de discusión.

El protagonista de esta historia no es la IA. Es una paciente que continuó sufriendo sin obtener respuestas y que no se rindió ante las anomalías que ocurrían en su cuerpo. La IA solo le dio palabras a esa determinación. Sin embargo, a veces, solo al obtener la pregunta correcta, una persona puede finalmente acercarse a la atención médica adecuada. En ese sentido, este evento debería ser recordado no como una victoria de la IA, sino como el momento en que "una voz no escuchada" finalmente se hizo visible.


URL de la fuente

  1. https://g1.globo.com/tecnologia/noticia/2026/04/14/como-chatbot-de-ia-descobriu-condicao-rara-de-mulher-apos-anos-de-diagnosticos-errados.ghtml
  2. Artículo que reproduce y resume contenido de la BBC. Utilizado para verificar la historia de Phoebe Tesoriere, el proceso de ingresar síntomas en la IA y la confirmación del diagnóstico mediante pruebas genéticas.
    https://www.pslhub.org/blogs/entry/9724-chatgpt-uncovered-womans-rare-condition-after-years-of-misdiagnosis/
  3. Utilizado para verificar ejemplos específicos de síntomas y la información adicional de que fue diagnosticada con HSP de tipo complejo en agosto de 2025.
    https://www.ladbible.com/news/health/anxiety-chatgpt-health-diagnosis-phoebe-tesoriere-hsp-410723-20260407
  4. Explicación básica de HSP (Paraplejía Espástica Hereditaria). Explicación general del NHS.
    https://www.nhs.uk/conditions/hereditary-spastic-paraplegia/
  5. Verificación de la definición de HSP y su carácter de enfermedad neurológica progresiva. Explicación del NINDS de EE. UU.
    https://www.ninds.nih.gov/health-information/disorders/hereditary-spastic-paraplegia
  6. Verificación adicional de que la HSP es un grupo de enfermedades neurológicas hereditarias y progresivas. Explicación del GARD de EE. UU.
    https://rarediseases.info.nih.gov/diseases/6637/hereditary-spastic-paraplegia
  7. Anuncio de la Universidad de Oxford sobre los riesgos de la consulta médica con IA. Utilizado para verificar el punto de que "la buena y mala información se mezclan, lo que dificulta que los usuarios las distingan".
    https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice
  8. Suplemento del mismo estudio de Oxford. Utilizado para verificar el punto de que una ligera diferencia en la formulación de la pregunta puede cambiar drásticamente la respuesta.
    https://www.oii.ox.ac.uk/news-events/new-study-warns-of-risks-in-ai-chatbots-giving-medical-advice/
  9. Artículo de Reuters que informa sobre el estudio de Oxford. Utilizado para verificar el punto de que los usuarios de IA no mostraron una ventaja significativa en la toma de decisiones reales.
    https://www.reuters.com/business/healthcare-pharmaceuticals/ai-no-better-than-other-methods-patients-seeking-medical-advice-study-shows-2026-02-09/
  10. Explicación oficial de OpenAI. Utilizado para verificar la política de que la IA en el campo de la salud apoya la medicina pero no es un sustituto del diagnóstico o tratamiento.
    https://openai.com/index/introducing-chatgpt-health/
  11. Publicación de LinkedIn utilizada para verificar las reacciones en redes sociales. Fuente de referencia para la afirmación cautelosa y las reacciones de empatía en los comentarios.
    https://www.linkedin.com/posts/anilvanderzee_chatgpt-diagnoses-cardiff-womans-rare-condition-activity-7448414384688861184-JEaN
  12. Resultados de búsqueda de publicaciones en X utilizados para verificar las reacciones en redes sociales. Utilizado para verificar el enojo hacia la atención médica y la recepción escéptica.
    https://x.com/Miroandrej/status/2042668305190948993
  13. Resultados de búsqueda de publicaciones en X utilizados para verificar las reacciones en redes sociales. Utilizado para verificar las reacciones críticas hacia el manejo de las etiquetas de enfermedades mentales.
    https://x.com/senmum05