Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

"Estafa de IA 2.0": Aumento de fraudes y delitos de identidad digital

"Estafa de IA 2.0": Aumento de fraudes y delitos de identidad digital

2025年07月19日 09:26

1. Introducción: La era en que la "confianza" se convierte en moneda

En 2024, el monto de las pérdidas por delitos en internet recopilado por el FBI alcanzó los 16 mil millones de dólares, un aumento del 33% respecto al año anterior, marcando el peor registro hasta la fecha. El último informe publicado por la empresa Proof el 17 de julio, The Trust Ledger, reveló que detrás de estas pérdidas, la combinación de "IA generativa y suplantación" está expandiéndose explosivamente. BetaNews advirtió el mismo día en un artículo que "la IA ya es un detonante para el fraude".BetaNewsBusiness Wire


2. Tres impactos descritos por el "Trust Ledger"

  1. Aceleración y automatización - La IA genera automáticamente falsificaciones de documentos y clones de voz, aumentando exponencialmente la velocidad con la que se eluden los métodos tradicionales de KYC.

  2. Expansión del alcance del daño - Se extiende a áreas "no financieras" como la gestión inmobiliaria, servicios públicos y departamentos de recursos humanos.

  3. Riesgos incalculables - El 30% de las empresas encuestadas respondieron que "no tienen indicadores transversales de fraude".Business Wire


3. La nueva "arma" llamada ID sintético

El "ID sintético", que mezcla información personal real con datos generados por IA, incluso genera automáticamente selfies para reconocimiento facial. En el mercado negro, los conjuntos de datos personales llamados "fullz" se compran y venden por 3 dólares, y los infostealers de malware los suministran constantemente.Business Wire


4. La IA generativa como "suscripción al fraude"

En los foros clandestinos han surgido LLM de pago como FraudGPT y WormGPT. Por alrededor de 200 dólares al mes, se pueden personalizar desde textos de phishing, código de malware que explota vulnerabilidades de día cero, hasta guiones de ingeniería social.MalwarebytesBitdefender


5. La cultura de jailbreak que genera un "mercado negro de IA"

Malwarebytes informa que se ha establecido un "LLM-as-a-Service" que revende LLM públicos liberados. Aunque se cierran foros y se realizan arrestos, las variantes continúan surgiendo en un estado de juego del gato y el ratón.Malwarebytes


6. Reacciones que estallan en las redes sociales

  • "Los datos son atacados cada 39 segundos. Es luchar o ser hackeado" - advierte la cuenta de educación cibernética @real3uniTwStalker

  • "Entrena el 'pensamiento hacker' con ShellGPT, FraudGPT" - Tweet de concienciación de un joven ingenieroTwStalker

  • En LinkedIn, miles de reshares ocurrieron y el hashtag #AIFraud se volvió tendencia (del 17 al 18). Entre los CISO de empresas, se escucharon repetidamente voces que decían que "revisar la gestión de ID de la empresa es urgente".LinkedIn


7. La proliferación de cuentas con rostros falsos

Los perfiles de Twitter creados con fotos de rostros generados por GAN están activos al menos 10,000 veces al día, según un documento de 2024. Se propuso un método de detección utilizando la regularidad de la posición de los ojos, pero es difícil para los usuarios comunes detectarlo.arXiv


8. Retrasos en la regulación legal y la cooperación internacional

En los Estados Unidos, continúan los juicios sobre "quién es responsable de las transferencias fraudulentas". La UE ha establecido una clasificación de "IA de alto riesgo" en el borrador de la Ley de IA, pero las medidas específicas contra el crimen de ID se dejan a cada país. En Japón, las cláusulas relacionadas con la IA en la ley revisada de prevención del crimen aún no están desarrolladas.


9. Seis medidas defensivas que las empresas deben tomar

  1. Detección bio en tiempo real (análisis de flujo sanguíneo y parpadeo)

  2. KYC dinámico (actualización de la puntuación de riesgo durante las transacciones continuas)

  3. Implementación de API de protección de datos sintéticos

  4. Verificación de marcas de agua en salidas de LLM

  5. Intercambio mutuo de señales de fraude (cruzando los sectores financiero, de telecomunicaciones y público)

  6. "Identidad de confianza cero" - Diseño que siempre cuestiona la propia ID


10. Tres medidas que los usuarios individuales pueden tomar hoy

  • Autenticación FIDO2 con llave física

  • Separar las direcciones de correo electrónico de notificación para cuentas y redes sociales

  • Activar la **"notificación de re-registro"** de la autenticación biométrica


11. Conclusión: Protege los comunes de la "confianza"

La IA ha "democratizado" el trabajo de los estafadores. Al mismo tiempo, la IA de detección y las plataformas de autenticación avanzadas están evolucionando a la misma velocidad. La clave es el intercambio abierto de información y la alfabetización de los usuarios. El concepto de "Trust by Design" presentado por Proof, es decir, la idea de incorporar una "especificación de confianza" en todos los sistemas, es el ciberhigiene de la era post-IA.



Artículos de referencia

La IA está provocando un aumento en el fraude y los delitos de identidad digital
Fuente: https://betanews.com/2025/07/17/ai-fraud/

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.