"¿Es seguro confiar la información médica a ChatGPT?" La función "Health" plantea la realidad de la privacidad.

"¿Es seguro confiar la información médica a ChatGPT?" La función "Health" plantea la realidad de la privacidad.

1) El momento en que el "consejero de salud" es reemplazado por una aplicación

"No puedo explicar bien mis síntomas", "Me da miedo mirar los números de los resultados de las pruebas", "Los seguros y documentos son demasiado complicados": en la entrada al sistema de salud, hay muchas "piedras de tropiezo" más allá de la condición física. Aquí es donde entra en juego la "IA que puede conversar", permitiendo que las personas se liberen de una carga pesada.


The Verge aborda precisamente esta brecha psicológica. OpenAI menciona que cada semana se realizan un gran número de consultas sobre salud y bienestar, y con la percepción de los usuarios de la IA como "guía en el laberinto" o "aliado", se presenta "ChatGPT Health" de manera más especializada. Sin embargo, el núcleo del artículo es este: cuanto más se asemeja a una "sala de consulta", más fácil es que las personas se confundan pensando que tienen la misma protección que en el ámbito médico. Pero la realidad es diferente.


2) ¿Qué función cumple ChatGPT Health?

ChatGPT Health proporciona un área especializada para conversaciones sobre salud y bienestar, conectando registros médicos e información de diversas aplicaciones según sea necesario, con el objetivo de ofrecer respuestas más "contextualizadas". OpenAI aclara la posibilidad de que los usuarios ingresen, carguen o conecten contenido sensible como registros médicos, resultados de pruebas, información de prescripciones, datos de ritmo cardíaco, sueño, pasos, así como síntomas e historial médico.


Lo importante es que "Health tiene una función de memoria única". Limitado a conversaciones sobre salud, puede ofrecer sugerencias más "parecidas" basadas en consultas pasadas e información de aplicaciones conectadas. Detrás de la conveniencia, la imagen de salud personal se acumula de manera más tridimensional.


3) La mayor razón para sentir "protección" es la fuerte "palabra de la empresa"

The Verge enfatiza que este no es un establecimiento médico. Las obligaciones y sanciones estrictas que se aplican a los proveedores de atención médica no necesariamente se aplican de la misma manera. Por eso, lo que los usuarios confían es en las "promesas" escritas en los términos de uso y la política de privacidad.


OpenAI ha mostrado al menos el siguiente marco en relación con Health.

  • No se utiliza para el aprendizaje (mejora del modelo base): Por defecto, el contenido de Health no se utiliza para mejorar el modelo base.

  • Sin embargo, existe la posibilidad de "acceso": Por razones de mejora de la seguridad, es posible que personal autorizado o subcontratistas accedan al contenido de Health (también relacionado con la configuración del usuario).

  • Divulgación para subcontratación externa y cumplimiento legal: Puede haber divulgación a subcontratistas operativos (alojamiento, soporte, etc.) y para obligaciones legales o protección de derechos.

  • "Socios externos" para la conexión de registros médicos: Se especifica que la conexión de registros médicos electrónicos utiliza un socio externo (b.well).

  • Declaración de "no venta": Se afirma que no se venderán los datos personales obtenidos a través de Health.

  • Actualizaciones futuras: La notificación (Notice) puede actualizarse.


Aquí surge el problema de la "confianza en las palabras" mencionado por The Verge. Aunque tener promesas es un avance, en una situación sin la misma supervisión legal, queda una apuesta final de "creer o no creer".


4) Otro problema: "El problema de los nombres demasiado similares"

The Verge advierte específicamente sobre el hecho de que ChatGPT Health para consumidores y ChatGPT for Healthcare para instituciones médicas y empresas tienen nombres y tiempos de lanzamiento similares. Se dice que hubo confusión incluso en entrevistas.


En OpenAI for Healthcare para empresas, se aborda el manejo de datos de pacientes, registros de auditoría, gestión de claves de cifrado y contratos para apoyar el cumplimiento de HIPAA (BAA), destacando el diseño para "estar bajo el control de la organización".

 
Por otro lado, en el Health para consumidores, aunque también se trata de "salud", el contexto es diferente. Si se confunden, solo queda la expectativa de que "debe estar protegido como una institución médica".


5) El riesgo no es solo la privacidad. La "apariencia médica" genera confianza excesiva

The Verge menciona la "industria regulada de la salud" y señala el peligro de que los chatbots puedan devolver información errónea con confianza en un área donde los errores pueden ser fatales. Se han reportado casos en los que sugerencias incorrectas llevaron a problemas de salud.


Además, lo complicado es que la frase **"no es para diagnóstico o tratamiento" como exención de responsabilidad y el uso "prácticamente médico" como "puede usarse para interpretar resultados de pruebas y organizar decisiones de tratamiento"** pueden coexistir fácilmente. La experiencia del usuario se convierte en una "consulta médica", y cuanto más personal y detallada sea la respuesta de la IA, más se desvanece la presencia de la exención de responsabilidad.


6) Reacciones en las redes sociales: aunque hay un rechazo notable, "la conveniencia es conveniente" no desaparece

El tema ha generado reacciones bastante directas en las redes sociales.


Grupo de "nunca lo entregaré" (fuerte rechazo)

En Reddit, hay una gran cantidad de rechazos expresados en pocas palabras, como "Oh hell naw", "Absolutely not", "Nope nope nope...", destacando un rechazo inmediato.

 
En el mismo hilo, también hay mucha desconfianza, como "parece una solicitud de consentimiento para la recolección de datos" y "temor a la filtración".
En Bluesky, se ha difundido el sarcasmo de "¿entregar la privacidad médica para obtener consejos médicos peligrosamente inciertos?".
En Mastodon, se pueden ver publicaciones que dicen "hay muchos servicios que no deberían conectarse a registros médicos, pero los chatbots de IA están en la parte superior de la lista".


Grupo de "parece un anuncio/falta de explicación" (duda sobre la "forma de vender")

En Hacker News, hay opiniones como "este flujo parece un anuncio" y "si induce a error, debería ser demandado", así como críticas de que la configuración de privacidad es confusa "por cada chat".

 
En resumen, antes de la funcionalidad en sí, se cuestiona si "la forma de vender permite a los usuarios reconocer correctamente los riesgos".

Grupo de "puede ser útil dependiendo de cómo se use" (uso práctico)

Por otro lado, en Reddit, hay voces que dicen "es útil como ayuda para interpretar resultados de pruebas e imágenes. Puede organizar materiales para consultar con un médico".
Este grupo ve la IA como una herramienta de organización de información, con la premisa de "no reemplazar al médico". Sin embargo, si todos pueden mantener esa premisa es otro asunto.


7) Entonces, ¿cómo usarlo? (Lista de verificación práctica)

Es fácil decir "no lo uses", pero en realidad, muchas personas "ya lo están usando". Por lo tanto, se debe tener al menos una línea de base.

  • Evitar entregar completamente los registros médicos: Primero, prueba con "información anonimizada y resumida". Sé cauteloso con nombres de diagnósticos, nombres de hospitales, ID de pacientes, imágenes originales, etc.

  • Entender el alcance de "aplicaciones conectadas/terceros": Health se basa en la conexión con aplicaciones externas, y la conexión de registros médicos involucra a socios externos. Las políticas de conexión también son diferentes.

  • "No se utiliza para el aprendizaje" no es una carta universal: No usarlo para el aprendizaje y la posibilidad de acceso/divulgación por razones operativas, de seguridad y legales pueden coexistir.

  • No reemplazar "decisiones de diagnóstico/tratamiento": Las sugerencias de la IA deben limitarse a listas de preguntas y organización de puntos para llevar al médico.

  • No confundir: El marco para instituciones médicas (apoyo HIPAA, BAA, etc.) y el contexto de Health para consumidores son diferentes.


8) Resumen: Cuanto más aumenta la conveniencia, más importante es la "línea divisoria"

Si se resume la afirmación de The Verge en una frase, sería: "No confundas una 'experiencia parecida a la médica' con la protección al nivel de la atención médica".
ChatGPT Health tiene el potencial de ayudar en la comprensión y preparación de información de salud, pero los datos que maneja son demasiado pesados. La fuerte reacción de rechazo en las redes sociales probablemente se debe a que se imagina "lo irreversible" antes que la "conveniencia".


En última instancia, lo que se nos pregunta no es "si la IA es inteligente", sino "si este servicio cumple con la responsabilidad de explicar para ganar confianza al nivel médico" y "hasta dónde estamos dispuestos a ceder". En una era en la que la conveniencia nos atrae, es necesario "trazar la línea" por nosotros mismos.



Fuente