Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Seguridad de la información en la era de la IA: 5 tipos de información que no debes compartir con ChatGPT

Seguridad de la información en la era de la IA: 5 tipos de información que no debes compartir con ChatGPT

2025年06月15日 11:33

――Informe desde Brasil y voces en las redes sociales japonesas para entender los riesgos y las medidas――

Introducción: El "precio irreversible" que se esconde tras la conveniencia

La IA generativa se ha convertido en una infraestructura cotidiana al igual que los motores de búsqueda y las redes sociales. ChatGPT, Copilot, Gemini, Notion AI: podemos preguntar a la IA, planificar y organizar nuestro presupuesto familiar las 24 horas del día. Sin embargo, el hecho de que el contenido ingresado permanezca en la nube y pueda ser reutilizado para mejorar modelos o para la segmentación de publicidad es una realidad sorprendentemente desconocida.

El artículo explicativo de InfoMoney de Brasil, publicado el 14 de junio, titulado "Gemini, ChatGPT e mais: 5 informações para nunca compartilhar com IAs", enumera **"cinco tipos de información que nunca debes dar a la IA"**, generando un gran revueloinfomoney.com.br. En este artículo, presentamos en detalle los puntos clave del artículo en japonés, así como las opiniones a favor y en contra expresadas en las redes sociales nacionales e internacionales, y explicamos en profundidad las medidas prácticas que los usuarios japoneses deben tomar de inmediato en aproximadamente 10,000 caracteres.



Capítulo 1: Los "5 datos prohibidos" advertidos por InfoMoney

El artículo de InfoMoney afirma que los siguientes cinco elementos son "absolutamente prohibidos".

#CategoríaEjemplo específicoRiesgo principal
1Información personalNombre, dirección, número de teléfono, CPF/RG (equivalente al número de seguridad social en Brasil), etc.Identificación personal y suplantación de identidad
2Información de inicio de sesiónID y contraseña, código de un solo usoSecuestro de cuentas
3Confidencialidad laboralTexto completo de chats internos, borradores de contratosFuga de secretos comerciales y patentes
4Datos financieros y médicosNúmero de tarjeta, saldo de inversiones, informes médicosFraude financiero y discriminación laboral
5Pensamientos y emocionesSíntomas de depresión o consultas sobre relaciones amorosas y otros problemas profundosPerfilado psicológico

El artículo enfatiza que **"la IA no es ni un amigo ni un terapeuta"** y señala el peligro de que incluso textos vívidos sobre emociones se conviertan en objetos de aprendizajeinfomoney.com.br.



Capítulo 2: Regulaciones legales y contexto cultural en Japón

1. Ley de Protección de Información Personal y AI

En Japón, la "Ley de Protección de Información Personal" también ha sido enmendada, y desde 2022 se ha introducido la regulación de la provisión a terceros de información relacionada con individuos. En algunos casos, al pegar datos de clientes en un prompt, se considera como "provisión externa", por lo que es esencial para las empresas especificar el propósito de uso y tomar medidas de gestión de seguridad.


2. Otra trampa de la sociedad que "lee el aire"

Aunque los japoneses son cautelosos con la privacidad, también tienen la tendencia de volcar sus consultas solo a la AI. La presión cultural de "no querer molestar a los demás" puede, por el contrario, inducir a la entrada masiva de datos emocionales sensibles.



Capítulo 3: Profundizando en los 5 grandes datos no permitidos

1. Información personal: No estás seguro ni siquiera con una cuenta secundaria

En las redes sociales nacionales, se han reportado casos de "al ingresar un nombre en AI generativa, este aparece directamente en los resultados de búsqueda". El usuario de Note, @safe_lynx, sugiere que "solo al abstraer nombres y clientes, se reduce drásticamente la probabilidad de filtración"note.com.


Puntos

  • Reemplazar el nombre "Taro Yamada→encargado de la empresa T".

  • Difuminar la fecha "14 de junio de 2025→a mediados del mes pasado".


2. Información de inicio de sesión: No la entregues a nadie más que al gestor de contraseñas

Entendemos el deseo de pedirle a la AI que "gestione las contraseñas", pero debes saber que a menos que sea un almacenamiento cifrado, estará expuesto a terceros. InfoMoney enfatiza "usa solo herramientas de gestión dedicadas y de confianza o memoriza".infomoney.com.br.


3. Secretos laborales: Consultar fuera de la empresa es sinónimo de "filtración externa"

Se observan casos donde se pega toda la biblioteca interna para solicitar una revisión de código. Cuando la prefectura de Tottori prohibió completamente el uso de ChatGPT en el trabajo, se desató un debate en redes sociales con comentarios como **"es anticuado"** y **"pero la filtración de información da miedo"**nlab.itmedia.co.jp. La conclusión fue: "establecer un GPT interno dedicado o solo proporcionar resúmenes a modelos externos" —estas son las dos opciones.


4. Datos financieros y médicos: La relación de AI con "dinero y salud"

En la industria Fintech, hay un movimiento activo para "hacer que AI lea automáticamente los registros financieros", pero InfoMoney afirma categóricamente que pegar números de tarjetas o diagnósticos directamente es un acto suicida.infomoney.com.br.En el país, las API bancarias están configuradas con comunicación encriptada y control de acceso. Esto no se puede lograr con un chat de IA para uso personal.


5. Pensamientos y emociones: Los "amigos AI" para la salud mental son una espada de doble filo

La IA generativa vectoriza "pensamientos y emociones" y perfila a los usuarios. Un artículo brasileño menciona la "posibilidad de sufrir daños psicológicos por consejos erróneos" yhace un llamado a que las consultas emocionales se dirijan a profesionales o personas de confianza.infomoney.com.br.



Capítulo 4: ¿Qué dijeron las redes sociales? — Voces reales de Japón

Publicaciones representativasDirección de las reaccionesFuente de la cita
"Quiero usar ChatGPT en la empresa, pero no sé qué no debo pegar"Inseguridad y falta de informaciónSección de comentarios del artículo en Notenote.com
"¿Solo Tottori está en la era Showa?" "No, es una decisión sabia"Debate sobre la prohibición de usoInforme de ITmedianlab.itmedia.co.jp
"Cuando le pedí consejos amorosos a la IA, me respondió igual que mi ex."Miedoal manejo de datos emocionalesExperiencias en Notenote.com


Principales tendencias

  1. Demandas de reglas: "Quiero una lista clara de 'entradas prohibidas'"

  2. Conflicto entre el uso de la IA y la competitividad: "Entiendo la prohibición, pero si no la uso, me quedaré atrás"

  3. Miedo a los datos psicológicos: "Si muestro debilidad, los anuncios podrían ser demasiado efectivos"



Capítulo 5: Tendencias recientes en las directrices de empresas y gobiernos locales

  • Guías internas de prompts, aumentando el número de empresas que indican claramente en rojo los "elementos prohibidos compartidos"note.com.

  • Ejemplos de implementación de "puertas de entrada de prompts" que realizan enmascaramiento automático antes de la entrada.

  • **Contrato de exclusión de aprendizaje (Anexo de Procesamiento de Datos)** firmado con el proveedor de IA en la nube para prevenir el reentrenamiento no intencionado.



Capítulo 6: Riesgos profundos: Deepfakes y guerra de información a nivel estatal

The Wall Street Journal advierteque los fraudes con deepfakes han aumentado un 700% en comparación con el año anteriorjp.wsj.com. Además, hay informes de que China ha intentado manipular a los votantes de Taiwán y Estados Unidos con contenido generado por IA, lo que indica que los ataques de desinformación avanzados no son un problema ajenojp.wsj.com.



Capítulo 7: "Lista de Verificación de Seguridad de IA" para Usuarios Japoneses

  1. Recitar las "5 Grandes Prohibiciones" antes de pegar

  2. Si es absolutamente necesario

    • Información personal→Inicializar

    • Confidencial→Solo resumen

    • Financiero y médico→Numeración ficticia

  3. Consultas emocionales a humanos: Utilizar líneas directas de expertos, amigos, o autoridades locales

  4. Eliminar periódicamente el historial de prompts: Verificar siempre la configuración del servicio

  5. Cuidado con las funciones beta y extensiones de terceros: Leer sobre la opción de exclusión de aprendizaje



Conclusión: Para permanecer como "usuario" de IA

Mientras que la IA generativa ofrece resultados asombrosos, también convierte cada uno de nuestros movimientos en datos y los retiene indefinidamente. Las **"5 Tipos de Información que Nunca Deben Compartirse"** enumeradas por InfoMoney son una "línea roja" aplicable más allá de las fronteras.

En las redes sociales japonesas, hay una polarización entre "no usar porque da miedo" y "usar aunque da miedo". Sin embargo, en lugar de esta elección extrema, **comprender específicamente los riesgos y establecer barreras técnicas y organizativas para "usarlo adecuadamente"** es el único camino para mantener la competitividad digital.

Espero que este artículo sea de alguna ayuda para mejorar su alfabetización en IA y su uso seguro.


Artículos de referencia

"Gemini, ChatGPT, etc.: 5 Tipos de Información que Nunca Deben Compartirse con IA"
Fuente: https://www.infomoney.com.br/consumo/informacoes-nunca-compartilhar-ia/

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.