Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

OpenAI reafirma la política de ChatGPT: "Prohibición de asesoramiento legal y médico" no era una "nueva regla" — qué ha cambiado y qué no ha cambiado

OpenAI reafirma la política de ChatGPT: "Prohibición de asesoramiento legal y médico" no era una "nueva regla" — qué ha cambiado y qué no ha cambiado

2025年11月16日 19:52

1. ¿Qué fue lo que se volvió tema de conversación? ── La confusión sobre "¿ChatGPT prohíbe consultas médicas y legales?"

A principios de noviembre de 2025, se difundió globalmente en las redes sociales el rumor de que "ChatGPT ha prohibido completamente el asesoramiento médico, legal y financiero". Uno de los desencadenantes fue un informe o publicación citada por sitios de noticias que afirmaba que "los chatbots ya no proporcionarán asesoramiento específico sobre tratamientos, leyes o dinero".Khaleej Times+1

Lo que se volvió particularmente viral fue un mensaje publicado en X por la plataforma de apuestas "Kalshi", que decía "ChatGPT ya no proporciona asesoramiento sobre salud o leyes" (posteriormente eliminado).The Verge

Esto llevó a que

  • "¿Ya no responderá a consultas sobre enfermedades?"

  • "¿No podrá revisar contratos o dar consejos sobre impuestos?"

  • "¿Ha sido degradado ChatGPT a una mera herramienta de conversación debido a la regulación de IA?"

Estas preocupaciones y especulaciones se extendieron entre usuarios de todo el mundo, incluyendo Japón.


Sin embargo, la explicación oficial de OpenAI contrasta con esto. Según un informe de NDTV Profit, OpenAI declaró que "el comportamiento de ChatGPT no ha cambiado" y que "las reglas sobre asesoramiento legal y médico han existido desde antes y no se han introducido recientemente".NDTV Profit



2. Explicación oficial de OpenAI: "El comportamiento del modelo no ha cambiado"

Karan Singhal, responsable de IA en salud de OpenAI, negó directamente este rumor en las redes sociales. Según The Verge, Singhal publicó en X lo siguiente:The Verge


"Esto no es cierto. Aunque se están difundiendo especulaciones, esto no es un cambio nuevo en los términos de uso. El comportamiento del modelo no ha cambiado. ChatGPT nunca ha sido un sustituto de los expertos, pero sigue siendo un recurso excelente para comprender información legal y de salud".


Hay dos puntos clave.

  1. No se han añadido "nuevas prohibiciones"
    La regla de que no se debe proporcionar "asesoramiento específico y personalizado" en áreas de "alto riesgo" como la legal, médica y financiera sin la participación de expertos ha existido desde antes.The Times of India+1

  2. La provisión de información general continúa
    Explicaciones generales de enfermedades, resúmenes de leyes y sistemas, análisis de casos y noticias, y la provisión de información general sobre salud, es decir, "información educativa" o "explicaciones para ayudar a la comprensión", se seguirán proporcionando como hasta ahora. OpenAI también posiciona a ChatGPT como una "herramienta educativa".NDTV Profit+1


En resumen, no es que "ya no responda en absoluto", sino que se ha reafirmado lo que "no se debe hacer desde el principio", enfatizando que "en esos casos, siempre se debe consultar a un experto humano".



3. Lo que realmente cambió con la revisión de la Política de Uso del 29 de octubre

Entonces, ¿qué cambió con la actualización del 29 de octubre de 2025? OpenAI actualizó las Políticas de Uso en su sitio oficial, integrando documentos que estaban divididos en varios.OpenAI+1


3-1. Integración de documentos de políticas y reorganización de expresiones

Anteriormente,

  • "Política Universal" común para todos los usuarios

  • Política específica para ChatGPT

  • Política para desarrolladores de API

Los documentos estaban divididos según el uso. En esta revisión, se unificaron y se reorganizaron como "Políticas de Uso comunes para todos los servicios de OpenAI".The Times of India


Además,

  • "Proteger a las personas"

  • "Respetar la privacidad"

se establecieron como pilares principales, y se enumeraron ejemplos de usos no permitidos dentro de estos.



3-2. Descripción específica sobre asesoramiento legal y médico

En el apartado "Proteger a las personas" de las Políticas de Uso, se incluye la siguiente declaración como una de las acciones prohibidas:OpenAI

"Proporcionar 'asesoramiento específico y personalizado' en áreas que requieren licencia (como la legal o médica) sin la participación de profesionales calificados".


Esto es similar en intención a la declaración anterior en las políticas:

"Como una acción que podría comprometer significativamente la seguridad, los derechos o el bienestar de las personas, se prohíbe proporcionar asesoramiento individual sobre leyes, medicina o finanzas sin revisión de expertos".

El contenido es "continuidad" y "reorganización de expresiones", y no se han añadido nuevas prohibiciones de repente.The Times of India+1

Es decir, en términos de contenido, es una "continuación" y una "reorganización de expresiones", y no se han añadido nuevas prohibiciones de repente.



3-3. Restricciones en la automatización en áreas de alto riesgo

La política actual también limita la automatización de decisiones solo con IA en áreas que tienen un gran impacto en la vida de las personas, como la legal, médica, financiera, de vivienda, empleo y seguros.Khaleej Times+1


  • Decisiones de contratación o despido solo con IA

  • Decisiones sobre pagos de seguros solo con IA

  • Decisiones sobre tratamientos médicos solo con IA


Estas situaciones conllevan altos riesgos. OpenAI sostiene que en estos usos siempre debe haber una revisión o decisión por parte de un experto humano.



4. ¿Por qué se limita el "asesoramiento legal y médico"?

OpenAI es cauteloso con el asesoramiento legal y médico por varias razones.


4-1. Riesgos por errores o información incompleta

La IA generativa puede crear textos plausibles, pero también puede cometer errores de hecho (lo que se conoce como "alucinaciones"). Especialmente en medicina y leyes,

  • pequeñas diferencias en los hechos pueden cambiar las conclusiones

  • las reglas varían según el país, la región y el momento

  • la solución óptima cambia según los síntomas o circunstancias personales

Estas características hacen que aplicar "generalidades" a casos individuales sea peligroso.


Por ejemplo,

  • aunque el diagnóstico sea el mismo, el tratamiento seguro puede variar según enfermedades preexistentes o medicamentos en uso.

  • En disputas contractuales, los detalles de las cláusulas del contrato o las interacciones con la otra parte pueden cambiar las acciones a tomar.

Si la IA proporciona un consejo erróneo y el usuario lo confunde con "opinión experta", pueden ocurrir daños a la salud o problemas legales.

4-2. La responsabilidad tiende a ser ambigua

Si se actúa basado en el consejo de la IA y resulta en un daño significativo, surge la pregunta de "¿quién es responsable?".

  • ¿La empresa que proporcionó la IA?

  • ¿El desarrollador que utilizó el modelo?

  • ¿El usuario que adoptó el consejo de la IA?

  • ¿O la organización que decidió implementar la IA?


Actualmente, este tema sigue siendo discutido en varios países, y aún hay muchas áreas sin reglas claras. OpenAI busca evitar aumentar riesgos innecesariamente en estas "zonas grises" alevitar decisiones autónomas de IA en áreas de alto riesgo.



4-3. Coherencia con las normas éticas profesionales

Profesionales como médicos, abogados y contadores tienen sus propios códigos éticos y obligaciones legales.

  • Médicos: Ley de Médicos, guías de publicidad médica, obligación de explicar tratamientos, etc.

  • Abogados: Ley de Abogados, reglamento básico de funciones de abogados, obligación de confidencialidad, etc.


La IA no está directamente sujeta a estas "obligaciones de los profesionales calificados", por lo que no se puede esperar el mismo nivel de responsabilidad o estándares éticos. La insistencia de OpenAI en que "ChatGPT no es un sustituto de los expertos" refleja esta realidad.NDTV Profit+1##

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.