Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Prueba de la soberanía digital: ¿Hacia dónde se dirige Europa con el retraso en la implementación de la Ley de IA?

Prueba de la soberanía digital: ¿Hacia dónde se dirige Europa con el retraso en la implementación de la Ley de IA?

2025年07月04日 11:52

Prólogo: La bomba de tiempo del "2 de agosto"

Este verano, en Bruselas, la metáfora de la "bomba de tiempo" está en boca de todos. El 2 de agosto marca el inicio de la cuenta regresiva para la aplicación de las obligaciones de transparencia y sanciones para modelos de IA general (GPAI) bajo la primera regulación integral de IA de la UE, la "AI Act". Sin embargo, justo antes de esta fecha, la Comisión Europea admitió que retrasaría la publicación de las directrices para empresas, el "Código de Prácticas de IA", por más de seis meses y se especula que está considerando congelar la aplicación de la ley por dos años. En respuesta, el hashtag #StopTheClockAIAct se ha vuelto tendencia en X (anteriormente Twitter), desatando un debate a tres bandas entre la industria tecnológica, políticos y organizaciones ciudadanas.reuters.com


Capítulo 1: La AI Act y la complejidad de la "implementación escalonada"

La AI Act fue publicada en el boletín oficial en junio de 2024 y ya está en vigor, pero las sanciones y obligaciones detalladas se aplicarán de manera escalonada durante un máximo de tres años【Figura 1】. En particular, los modelos de IA general tendrán que cumplir con las obligaciones de transparencia a partir del 2 de agosto de 2025, y las regulaciones adicionales para la categoría de "riesgo sistémico" entrarán en vigor el 2 de agosto de 2026. Este "cohete de dos etapas" crea una situación en la que "las metas se mueven" para las empresas, dificultando la planificación de conformidad para los profesionales. Las normas prácticas (documentos de estandarización EN) y el Código de Prácticas, que la Comisión Europea prometió complementar, se han retrasado, resultando en un riesgo de "documentación adelantada" donde solo el texto legal avanza.reuters.com


Capítulo 2: El impacto de la carta abierta de 45 empresas

El 3 de julio, 45 grandes empresas europeas, incluyendo ASML, Airbus, SAP, Mercedes y BNP Paribas, exigieron en una carta abierta una "pausa de dos años". "Las regulaciones ambiguas y redundantes están perjudicando la competitividad de la industria de IA en Europa", advierte la carta de 35 párrafos. La carta fue respaldada por la European AI Champions Initiative (AICI), que cuenta con más de 110 miembros. Un artículo de SiliconAngle del mismo día informó que "una regulación apresurada podría acentuar la brecha con China y Estados Unidos", y el Financial Times del Reino Unido también lo destacó en su portada.siliconangle.com


Capítulo 3: La disparidad política: el Primer Ministro de Suecia y el Ministro de Digitalización

Los países nórdicos han respondido al clamor de las empresas. El Primer Ministro de Suecia, Ulf Kristersson, expresó que "las disposiciones son demasiado complejas y están causando confusión en el campo", apoyando la idea de un aplazamiento. El Ministro de Digitalización de Alemania, Volker Wirtberger, también señaló que "si se procede sin directrices ni estándares, los accidentes son inevitables". Además, algunos miembros del Comité de Industria del Parlamento Europeo están considerando incluir un "paquete de simplificación" en una "reforma ómnibus" para fin de año.cio.comlinkedin.com


Capítulo 4: La presión del lobby de TI de EE.UU. y la CCIA

Grandes empresas estadounidenses como Alphabet, Meta y Apple también se han alineado con las empresas europeas. La organización de lobby de TI CCIA Europe presentó una carta en la cumbre del 25 de junio, instando a detener la implementación hasta que los estándares estén listos. Una encuesta de AWS citó que "dos tercios de las empresas europeas no comprenden las obligaciones". Las empresas estadounidenses han comenzado a declarar que prefieren invertir en proyectos en EE.UU. y Asia, donde las regulaciones son más claras, en lugar de en el incierto mercado europeo.reuters.comcio.com


Capítulo 5: El clamor de las startups: Mistral y Black Forest Labs

Para las pequeñas startups de IA, esto es una cuestión de vida o muerte. Mistral AI de Francia y Black Forest Labs de Alemania argumentan en una firma conjunta que "es injusto que las empresas emergentes con recursos limitados tengan que realizar la misma carga de trabajo documental que las grandes empresas". En una entrevista con Sifted, el vicepresidente de Mirakl lamentó que "si el criterio de 'modificación sustancial' es ambiguo y varía entre países, tendremos que lidiar con 27 interpretaciones diferentes".sifted.eu


Capítulo 6: Las redes sociales están divididas

El hashtag #StopTheClockAIAct registró 75,000 tuits en X entre el 3 y el 5 de julio (estimación de Brandwatch). El tuit más retuiteado a favor decía: "Si llegamos al 2 de agosto con el texto actual, Europa se convertirá en un desierto de innovación" (representante de @AI_Champs). Por otro lado, la ONG de derechos humanos @Rights4EU respondió: "No se rindan ante el lobby del capitalismo de vigilancia", obteniendo alrededor de 18,000 "me gusta". En LinkedIn, una publicación del periodista de MLex, Luca Bertuzzi, recibió más de 800 reacciones, planteando la cuestión legal de si la Comisión puede posponer la implementación por sí sola.linkedin.com


Capítulo 7: Preocupaciones de las organizaciones de consumidores y académicas

La Alianza Europea de Consumidores (BEUC) critica que "el aplazamiento retrasaría la protección del consumidor por dos años". La Sociedad Europea de Ética de la IA (EAIE) advierte en una declaración que "si se pospone el informe de transparencia, los ciudadanos seguirán sufriendo los efectos de la IA como una caja negra". Los académicos proponen separar el debate sobre "seguridad técnica" y "oportunidad regulatoria", sugiriendo un enfoque mixto que priorice la "evaluación de riesgos y la auditoría" y la "obligación de divulgar parámetros del modelo".


Capítulo 8: El trasfondo del retraso en los estándares técnicos

La AI Act se basa en más de 200 estándares técnicos desarrollados por el Comité Europeo de Normalización (CEN y CENELEC), pero solo poco más del 30% de los borradores están disponibles públicamente. Indicadores de evaluación como "pruebas de inocuidad" y "medición de eficiencia energética" carecen de consenso académico. El personal de la comisión admite que "incluso duplicando la velocidad de desarrollo de los estándares EN, no estarán completos hasta principios de 2026". El retraso en las directrices refleja esta realidad.


Capítulo 9: Comparación internacional: el enfoque "rápido y flexible" de EE.UU. y China frente al "cauteloso y lento" de la UE

Estados Unidos fomenta iniciativas lideradas por el sector privado con un "derecho blando" que combina órdenes ejecutivas y el marco del NIST, mientras que China obliga a realizar "revisiones de seguridad previas al lanzamiento" bajo regulaciones provisionales para IA generativa, al tiempo que promueve el desarrollo anticipado en un "sandbox regulatorio". En contraste, la UE busca una unificación rápida con regulaciones de alto poder vinculante, pero los costos y el tiempo para establecer estándares son un cuello de botella. Según estimaciones del Instituto de Investigación Económica IFO, la carga de cumplimiento de IA para las empresas de la UE es 1.7 veces mayor que en EE.UU. y 2.4 veces mayor que en China.


Capítulo 10: La perspectiva de los expertos: el dilema de la supervisión basada en riesgos

Entre los reguladores, el enfoque está en cómo equilibrar la "supervisión basada en riesgos" con el "modelo híbrido de autodeclaración". En una entrevista con CIO, Daniel Friedlander, representante europeo de la CCIA, criticó que "el texto actual impone obligaciones excesivas a los proveedores de modelos y deja ambiguas las responsabilidades de las empresas usuarias".


Por otro lado, en un panel de discusión de IAPP, el eurodiputado irlandés Michael McNamara comentó que "el aplazamiento es realista, pero debe ir acompañado de directrices provisionales con fuerza obligatoria para compensar la ausencia de estándares, de lo contrario será ineficaz".cio.comiapp.org


Capítulo 11: Análisis de escenarios: tres futuros

  1. Escenario de aplazamiento completo (45% de probabilidad)
    Pausa de dos años más la aprobación de un paquete de simplificación de disposiciones. Las empresas avanzan hacia la transparencia voluntaria mientras esperan el desarrollo de estándares.

  2. Escenario de aplazamiento limitado (40%)
    Solo la parte de GPAI se retrasa de seis meses a un año. Otros usos de alto riesgo siguen según lo planeado. La UE lo denomina "lanzamiento dividido".

  3. Continuación del cronograma actual (15%)
    Implementación el 2 de agosto. Las directrices se publican a fin de año. Las sanciones por incumplimiento se concentran después de agosto de 2026, y los primeros tres años son una "regulación simbólica".


Capítulo 12: Recomendaciones prácticas para las empresas

  • Inventario de riesgos: Realizar un inventario de la situación de uso de modelos GPAI, clasificándolos como "proveedores/desplegadores".

  • Plantilla de transparencia: Publicar de antemano un resumen de los datos de entrenamiento y el proceso de medición del consumo energético para reducir los costos de revisión cuando se confirmen las directrices.

  • Establecimiento de un punto de contacto: Diseñar provisionalmente un canal de informes de incidentes para la Comisión de IA de la UE y las autoridades de supervisión nacionales.

  • Participación en foros de estandarización: Incorporar la tecnología propia en propuestas de estándares para reducir los costos de pruebas de conformidad futuras.


Conclusión: El "largo verano" de la soberanía digital

El objetivo de la UE con la AI Act de lograr una "IA centrada en el ser humano y confiable" es un doble objetivo difícil de alcanzar junto con la competitividad industrial. La lucha por el aplazamiento resalta este conflicto como un "papel de tornasol". Cuando llegue el 2 de agosto, ¿se detendrá el reloj o las reglas? Solo el cielo de verano de Bruselas lo sabe. Sin embargo, las empresas no tienen otra opción que avanzar hacia la "transparencia voluntaria" en preparación para la fuerza obligatoria que vendrá.


Artículos de referencia

¿Retrasará la UE la implementación de su AI Act?
Fuente: https://www.thehindubusinessline.com/business-tech/will-the-eu-delay-enforcing-its-ai-act/article69767660.ece

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.