¿Ha superado la IA a los médicos de urgencias? El estudio de Harvard que plantea el "futuro del diagnóstico"

¿Ha superado la IA a los médicos de urgencias? El estudio de Harvard que plantea el "futuro del diagnóstico"

¿Ha superado la IA a los médicos de urgencias? El estudio de Harvard que plantea el "futuro del diagnóstico"

Frente a un paciente que llega a la sala de emergencias, se toma una decisión inicial con información limitada.
Esa decisión, a veces, puede ser cuestión de vida o muerte con retrasos de minutos o segundos.

En este entorno médico extremadamente tenso, la IA ha proporcionado diagnósticos más precisos que los médicos humanos. Esta noticia ha causado un gran revuelo no solo entre los profesionales de la salud, sino también en la industria tecnológica y las redes sociales.

TechCrunch informó sobre un nuevo estudio realizado por un equipo de investigación de la Facultad de Medicina de Harvard y el Beth Israel Deaconess Medical Center. En el estudio, los modelos de inferencia de OpenAI, como "o1" y "GPT-4o", fueron comparados con médicos humanos en varias tareas médicas. Lo que más llamó la atención fue la comparación de la capacidad de diagnóstico utilizando casos reales de la sala de emergencias.

El estudio incluyó a 76 pacientes que visitaron la sala de emergencias de Beth Israel. El equipo de investigación pidió a dos médicos internistas y a los modelos de IA que proporcionaran diagnósticos basados en la información del historial médico electrónico. Luego, otros dos médicos evaluaron los diagnósticos sin saber si provenían de humanos o de la IA.

Los resultados fueron impactantes. En la etapa inicial de triaje, el modelo o1 de OpenAI proporcionó un "diagnóstico preciso o muy cercano" en el 67% de los casos. En comparación, los médicos humanos lograron un 55% y un 50%, respectivamente. Esto significa que, al menos bajo las condiciones de este estudio, la IA superó a los médicos humanos en la tarea de reducir el diagnóstico a partir de información inicial limitada.

Además, cuando se disponía de más información, se informó que la precisión del diagnóstico de o1 aumentó a aproximadamente el 82%. Los médicos humanos también mejoraron su precisión al 70-79%, pero la IA mostró un nivel igual o ligeramente superior.

A simple vista, estos números podrían sugerir que "finalmente la IA ha superado a los médicos". De hecho, esa es una percepción común en las redes sociales. Sin embargo, lo que realmente muestra este estudio es una imagen más compleja y realista de la IA en el ámbito médico.


Lo que la IA destacó fue el "razonamiento clínico en papel"

En este estudio, la IA procesó información textual registrada en los historiales médicos electrónicos. Esto incluye datos vitales del paciente, edad, historial médico, breves notas de enfermería e información de pruebas, que son parte de la información que los médicos utilizan para el diagnóstico.

Es importante señalar que la IA no observó el color de la piel del paciente, ni su dificultad para respirar, ni realizó un examen físico del abdomen. Información como el temblor en la voz del paciente, su forma de caminar, su sudoración, las reacciones de la familia acompañante y la atmósfera entre el personal médico, que los médicos recogen inconscientemente en el lugar, no se incluyó.

Por lo tanto, esta IA no "examinó al paciente en la sala de emergencias", sino que "consideró un diagnóstico a partir de la información textual registrada en la sala de emergencias".

Este punto ha sido fuertemente señalado por profesionales médicos y técnicos en las redes sociales. En Hacker News, un comentario que decía "los médicos no diagnostican a los pacientes de emergencia solo mirando las notas" recibió mucho apoyo. La tarea evaluada por la IA es solo una parte del cuidado médico de emergencia real, y llegar a la conclusión de que "la IA reemplazará a los médicos de emergencia" basándose solo en estos resultados es prematuro.

En Reddit, también se destacó la reacción de que "el grupo comparado no eran médicos de emergencia, sino internistas" y que "el objetivo principal de la sala de emergencias no es acertar en el diagnóstico final, sino no pasar por alto condiciones que amenazan la vida". Este es un punto de discusión muy importante.

En la atención de emergencia, no solo se pregunta "¿cuál es el diagnóstico final de este paciente?", sino también "¿hay un peligro inminente de muerte?", "¿se necesita tratamiento inmediato?", "¿puede el paciente ser dado de alta?" y "¿debería ser derivado a una especialidad?". La capacidad de acertar en el diagnóstico y la capacidad de identificar y gestionar de manera segura condiciones peligrosas se superponen, pero no son lo mismo.


Aun así, el significado del "67%" no puede ser ignorado

Sin embargo, también es peligroso descartar los resultados de este estudio como una mera sobrevaloración.

En las etapas iniciales de la sala de emergencias, la información es escasa. A menudo, los resultados de las pruebas aún no están disponibles y el paciente puede no ser capaz de describir sus síntomas con claridad. En pacientes ancianos, con trastornos de conciencia o barreras lingüísticas, la dificultad aumenta aún más.

En tales situaciones, si la IA puede leer de manera transversal la información en los historiales médicos electrónicos y proporcionar una amplia gama de diagnósticos diferenciales, podría convertirse en un "segundo par de ojos" útil para los médicos.

En un caso presentado por The Guardian, un paciente con embolia pulmonar empeoró después del tratamiento y los médicos sospecharon que los anticoagulantes no estaban funcionando. Por otro lado, la IA se centró en el historial de lupus del paciente y sugirió la posibilidad de inflamación pulmonar. Finalmente, la observación de la IA fue correcta.

Este tipo de casos ilustra bien las fortalezas de la IA médica. Los médicos humanos están influenciados por el tiempo limitado, el cansancio, el número de pacientes a cargo, la experiencia previa y los sesgos de especialidad. La IA no se cansa y puede leer rápidamente la vasta cantidad de información en los historiales médicos electrónicos, captando combinaciones de antecedentes médicos y valores de pruebas que a menudo se pasan por alto.

Por supuesto, la IA también tiene sesgos y errores. Sin embargo, si comete errores de un tipo diferente a los humanos, la combinación de médicos e IA podría aumentar la seguridad en comparación con un médico solo.


De "IA vs. médicos" a "médicos + IA"

La esencia de este estudio no es que "la IA reemplace a los médicos". Más bien, se acerca a la pregunta de "¿cómo deberían los médicos utilizar la IA?".

Los propios investigadores no afirman que la IA pueda tomar decisiones críticas de vida o muerte en la sala de emergencias por sí sola. Más bien, sugieren que se necesitan ensayos clínicos prospectivos para verificar la seguridad y eficacia en la atención real al paciente.

Un malentendido común en los debates sobre la IA médica es evaluar la capacidad de la IA como un "reemplazo completo del humano". Sin embargo, en el entorno médico real, ya se utilizan muchos sistemas de IA de manera complementaria, como la IA para diagnóstico por imágenes, la verificación de interacciones medicamentosas, el apoyo a la creación de registros médicos y los modelos de predicción de riesgos.

Este estudio muestra que la IA generativa y los modelos de lenguaje a gran escala están evolucionando de ser meras herramientas de generación de texto a "herramientas de apoyo al razonamiento clínico".

Integran los síntomas del paciente, su historial médico, valores de pruebas y registros médicos anteriores para sugerir "¿no deberíamos considerar también esta enfermedad?", "¿no deberíamos agregar esta prueba?" o "¿no hay un riesgo en la elección de este medicamento?". En este uso, la IA no es un reemplazo del médico, sino un asistente que amplía la red de diagnóstico.

La perspectiva del Dr. Adam Rodman, presentada por The Guardian, también se acerca a esta dirección. Sugiere que el futuro de la medicina podría dirigirse hacia un modelo de "médico, paciente y IA" trabajando juntos.


Expectativas y precauciones difundidas en las redes sociales

 

Las reacciones en las redes sociales se dividen en tres grandes grupos.

El primero es la expectativa hacia la IA médica. En Hacker News, se expresó la opinión de que "a largo plazo, es probable que la IA supere a los humanos en áreas como el conocimiento, la experiencia y el reconocimiento de patrones, como en la medicina". Al igual que la IA ha demostrado rápidamente su poder en el desarrollo de software, se cree que a medida que evolucionen los modelos especializados en medicina, habrá más áreas en las que superen a muchos médicos.

Estas personas también prestan atención a la realidad del entorno médico. Los médicos están ocupados y el tiempo que pueden dedicar a un solo paciente es limitado. Los registros médicos son extensos y el conocimiento especializado se actualiza diariamente. Si la IA se introduce adecuadamente, podría reducir los errores y elevar el nivel de atención médica en áreas rurales o con escasez de médicos.

El segundo grupo es el de la cautela hacia el diseño del estudio. En Reddit, se destacó la reacción de que "el titular es engañoso". Se criticó que el grupo comparado no eran "médicos de emergencia", sino "internistas", que el objetivo de la atención de emergencia no es necesariamente acertar en el diagnóstico final y que la IA no examinó realmente a los pacientes.

En Hacker News, también se expresó que "estos puntos de referencia pueden distorsionarse fácilmente" y que "no se deben sacar conclusiones fuertes de un solo estudio". En la evaluación de la IA, a veces los conjuntos de datos contienen pistas no intencionadas o las tareas están configuradas de manera diferente a la práctica. En áreas de alto riesgo como la medicina, es necesario separar la victoria en los puntos de referencia de la seguridad en el entorno clínico.

El tercer grupo es el de la preocupación por la responsabilidad y la ética. En Reddit, se plantearon varias reacciones sobre "¿quién será responsable si un paciente muere debido a un error de diagnóstico de la IA?". Los médicos tienen responsabilidad profesional, explicaciones y obligaciones como profesionales. Sin embargo, en el caso de los modelos de IA, la responsabilidad es ambigua: ¿recae en la empresa desarrolladora, el hospital que la implementó, el médico que la utilizó o las autoridades reguladoras?

Este problema es uno de los mayores obstáculos para la adopción de la IA médica. No se trata solo de si la IA proporciona un diagnóstico correcto, sino de quién verifica, explica y enfrenta al paciente cuando se comete un error. Si esto no se aborda, será difícil confiar plenamente en la IA en el entorno médico.


La línea entre "segunda opinión útil" y "automatización peligrosa"

A la luz de este estudio, el uso más realista de la IA médica en este momento es como "segunda opinión".

Por ejemplo, cuando un médico está considerando un diagnóstico, la IA puede proporcionar candidatos diferenciales. Señala enfermedades que son fáciles de pasar por alto, enfermedades graves pero poco frecuentes y riesgos que surgen del historial de medicamentos o antecedentes médicos. El médico, utilizando esto como referencia, toma la decisión final basada en su propio examen, pruebas y diálogo con el paciente.

En este formato, se pueden aprovechar las fortalezas de la IA mientras se mantiene la responsabilidad y el juicio humano. Especialmente en entornos como las salas de emergencias, donde el tiempo es limitado y la presión para tomar decisiones es alta, la IA podría tener el efecto de reducir los "errores de omisión".

Por otro lado, lo peligroso es aceptar automáticamente las sugerencias de la IA. Si la IA presenta un diagnóstico erróneo con confianza, existe el riesgo de que los humanos se dejen influenciar por él. En los comentarios de expertos presentados por The Guardian, también se señaló el riesgo de que los médicos sigan inconscientemente las respuestas de la IA.

Esto se acerca al problema conocido como "sesgo de automatización". Los humanos tienden a percibir las respuestas generadas por computadora como objetivas y precisas. En entornos ocupados, la sensación de seguridad de que "la IA también lo dice" puede debilitar el pensamiento independiente.

Por lo tanto, si se va a introducir la IA médica, no basta con colocar simplemente un modelo de alta precisión. Es necesario diseñar cómo los médicos verificarán las sugerencias de la IA, cómo detectarán los errores de la IA, cómo explicarán a los pacientes y cómo registrarán la información.


Beneficios y riesgos para los pacientes

Desde la perspectiva del paciente, hay grandes expectativas hacia el apoyo diagnóstico de la IA.

Podría reducirse la posibilidad de que los médicos pasen por alto algo. Podría acelerarse el descubrimiento de enfermedades raras. Incluso en hospitales pequeños en áreas rurales, podría recibirse apoyo de conocimiento comparable al de grandes hospitales. En situaciones donde no hay especialistas disponibles de inmediato, como durante la noche o en días festivos, la IA podría sugerir candidatos importantes.

Por otro lado, también aumenta el riesgo de que los pacientes ingresen directamente sus síntomas en la IA y tomen decisiones por sí mismos sin la consulta de un médico. Este estudio comparó la IA en el contexto de datos del entorno médico y evaluaciones de médicos. No es un caso de que un chatbot accesible al público pueda proporcionar la misma precisión al ingresar síntomas.

De hecho, las respuestas de la IA pueden variar significativamente dependiendo de cómo el paciente exprese sus síntomas. Si omiten síntomas importantes o excluyen información que no consideran relevante, la IA puede ser llevada en la dirección equivocada. La entrevista médica y el examen físico del médico tienen el papel de captar información que el paciente no puede expresar con palabras.

Por eso, este estudio no transmite el mensaje de que "no se necesita ir al hospital si la IA te examina". Más precisamente, el mensaje es que "si los médicos utilizan adecuadamente la IA, es posible mejorar la calidad del diagnóstico".


¿Desaparecerá el trabajo de los médicos?

Como siempre, en las redes sociales se debate si "los médicos también serán reemplazados por la IA".

Sin embargo, el trabajo de los médicos no se limita a acertar en el diagnóstico. Escuchan las preocupaciones de los pacientes. Explican la necesidad de pruebas. Presentan opciones de tratamiento. Consideran los efectos secundarios y el contexto de vida. Hablan con la familia. Apoyan la toma de decisiones al final de la vida. Comunican pronósticos desfavorables. También conectan con el sistema de salud, seguros y recursos comunitarios.

Estas no son meras tareas de procesamiento de información. Son trabajos que incluyen juicios de valor, relaciones de confianza, procedimientos físicos y responsabilidad ética.

Incluso si la IA puede proporcionar candidatos de diagnóstico, los pacientes seguirán preguntando "¿qué debo hacer?", "¿debería recibir este tratamiento?" y "¿cómo debo explicarlo a mi familia?". En esos momentos, el papel del médico humano se vuelve aún más importante.

Sin embargo, la forma de trabajar de los médicos probablemente cambiará. La IA leerá los registros médicos, proporcionará diagnósticos diferenciales, sugerirá pruebas y creará un borrador del plan de tratamiento. Los médicos verificarán esto y tomarán decisiones adaptadas al contexto del paciente. En otras palabras, los médicos podrían pasar