Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

¿Se filtró un chat de IA privado a Google? El escándalo de la "filtración" de ChatGPT cuestiona la privacidad en la era de la IA

¿Se filtró un chat de IA privado a Google? El escándalo de la "filtración" de ChatGPT cuestiona la privacidad en la era de la IA

2025年08月03日 09:43

1. Inicio: La revelación de Fast Company sobre "conversaciones que no deberían ser vistas"

El 31 de julio (hora de EE. UU.), Fast Company informó en exclusiva que "Google está indexando las conversaciones de ChatGPT". Al ejecutar el operador de búsqueda "site:chatgpt.com/share", aparecieron en fila las URL de conversaciones configuradas como públicas. Se decía que incluían contenido de asesoramiento sobre PTSD, consultas sobre despidos e incluso ideas de investigación no publicadas.Fast Company


2. La trampa de "Hacer que este chat sea descubrible"

La raíz del problema fue una función de compartición que se implementó a modo de prueba para algunos usuarios desde finales de junio. Al enviar un chat a un amigo, aparecían dos botones: ① "Crear enlace de compartición" y ② "Hacer que sea descubrible en búsquedas (Discoverable)". Al activar el segundo, los rastreadores de Google y otros podían acceder. Sin embargo, la advertencia debajo del botón estaba en letras grises tenues, lo que llevó a críticas de investigadores de UX por inducir a toques erróneos.Windows CentralSearch Engine Land


3. Emergieron 4,500 casos: el contenido es más grave que el número

En el rastreo realizado por Fast Company y Tom’s Guide, había al menos 4,500 enlaces públicos. Aproximadamente el 30% contenía información que implicaba riesgos de violación del GDPR, como direcciones de correo electrónico, nombres de proyectos internos e historiales médicos. En el hilo /r/privacy de Reddit, surgieron confesiones como "mi presentación para una entrevista de trabajo estaba completamente visible" y "dejé materiales bajo NDA de la empresa accesibles públicamente".Tom's GuideReddit


4. Respuesta de emergencia de OpenAI y responsabilidad explicativa

La noche del mismo 31, Dane Stuckey, CSO de OpenAI, anunció en X que "aunque fue un experimento a corto plazo, provocó una compartición accidental" y que la función fue eliminada de inmediato. Además, explicó que "se está colaborando con los motores de búsqueda para excluir los enlaces existentes y se retirará el botón de todos los usuarios en 24 horas".


5. Incendio en redes sociales: "#ChatGPTLeak" y "#PrivacyFail" se vuelven tendencia

  • X

    • "Mi consulta sobre salud mental aparece en los resultados de búsqueda. ¿Este es el 'futuro de la IA'?"

    • "Google y OpenAI, otra vez el 'infierno de opt-out' disfrazado de 'opt-in'"

  • Reddit (r/privacy)

    • "Sorprendido... no, en realidad, otra vez lo mismo"

    • "Renombren el botón de compartir. 'Publicar al mundo' sería más adecuado"

  • Instagram Reels donde se difundieron videos cortos, y los comentarios estaban en pánico: "Aunque se borren los enlaces, el caché permanece" y "también se están filtrando secretos empresariales".RedditInstagram


6. Perspectiva de los expertos: "Como con los correos electrónicos, verifica dos veces antes de enviar"

Business Insider señaló que "los enlaces compartidos son esencialmente lo mismo que las URL públicas en la nube". TechCrunch analizó que "debido a que tiene la misma estructura que 'Cualquiera con el enlace' de Google Drive, no es sorprendente que se indexe en las búsquedas". Muchos investigadores de seguridad de la información coinciden en que "al usar IA generativa, se debe adherir estrictamente al 'principio de mínima exposición'".Business InsiderTechCrunch


7. Impacto legal y ético: GDPR y la Ley de Protección de Información Personal de Japón

En Europa, aunque se argumenta que "no es una violación del GDPR si la persona ha indicado 'público'", también se debate que "si la interfaz induce a error, no se puede considerar un consentimiento válido". La Comisión de Protección de Información Personal de Japón también comentó que "independientemente de la intención o negligencia, si hay una filtración, la responsabilidad del operador no se puede eludir" (según entrevistas con partes involucradas). Al momento de la publicación del artículo, no se han reportado daños significativos por parte de usuarios empresariales en Japón, pero se están llevando a cabo investigaciones.


8. Cinco medidas que los usuarios pueden tomar de inmediato

  1. Inventario de URL compartidas – Verifique la lista en ChatGPT en el menú de la izquierda › Enlaces compartidos y elimine los enlaces innecesarios.

  2. Solicitar eliminación de caché de búsqueda – Solicite la exclusión temprana usando la "Herramienta de eliminación" de Google.

  3. Borrar el historial regularmente – Desactive "Configuración de datos › Historial de chat & Entrenamiento".

  4. Establecer políticas internas – Formalice la prohibición del uso de funciones de compartición y la restricción de la entrada de información bajo NDA.

  5. Antes de "hacer que la IA escriba", "no escriba" – No ingrese información que se supone no debe divulgarse desde el principio.


9. Conclusión: Reafirmar que la IA generativa debe ser "privada por defecto"

Este incidente ha vuelto a demostrar la realidad obvia de que, al igual que los correos electrónicos o documentos en la nube, una vez que algo sale de un chat de IA, no se puede recuperar. Aunque OpenAI actuó rápidamente, toda la industria necesita aprender la importancia del "diseño de opt-in" y una "interfaz de usuario clara". Los usuarios también deben desarrollar la imaginación de que "la IA podría no ser un secretario, sino un tablón de anuncios", yhacer de la verificación doble antes de enviar un hábito.


Artículos de referencia

Las conversaciones privadas con ChatGPT aparecen en Google, provocando una alerta global
Fuente: https://www.infomoney.com.br/mundo/conversas-privadas-com-o-chatgpt-aparecem-no-google-e-provocam-alerta-global/

Powered by Froala Editor

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.