Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Les défis de la souveraineté numérique : Quelle direction pour l'Europe avec le report de l'application de la loi sur l'IA ?

Les défis de la souveraineté numérique : Quelle direction pour l'Europe avec le report de l'application de la loi sur l'IA ?

2025年07月04日 11:53

Introduction : La bombe à retardement du "2 août"

Cet été, Bruxelles est en effervescence avec la métaphore de la "bombe à retardement". Le 2 août marque le début du compte à rebours pour l'application des obligations de transparence et des sanctions pour les modèles d'IA générale (GPAI) dans le cadre du premier règlement global de l'UE sur l'IA, l'"AI Act". Cependant, à la dernière minute, la Commission européenne a reconnu un retard de plus de six mois dans la publication des directives pour les entreprises, le "Code de pratique de l'IA", et des spéculations ont émergé sur un gel de deux ans de l'application de la loi. En réponse, le hashtag #StopTheClockAIAct a rapidement gagné en popularité sur X (anciennement Twitter), déclenchant un débat tripartite entre l'industrie technologique, les politiciens et les organisations citoyennes.reuters.com


Chapitre 1 : Complexité de l'AI Act et de sa mise en œuvre progressive

L'AI Act a été publié au Journal officiel en juin 2024 et est déjà en vigueur, mais les sanctions et obligations détaillées seront appliquées progressivement sur une période maximale de trois ans [Figure 1]. En particulier, les modèles d'IA générale verront leurs obligations de transparence entrer en vigueur le 2 août 2025, suivies de réglementations supplémentaires pour la catégorie "risque systémique" le 2 août 2026. Cette "fusée à deux étages" crée une situation où "les buts changent" pour les entreprises, rendant difficile pour les praticiens d'élaborer des plans de conformité. Les normes pratiques (documents de normalisation EN) et le code de pratique que la Commission européenne avait promis de compléter sont retardés, ce qui entraîne un risque de "prédominance des documents" où seule la législation avance.reuters.com


Chapitre 2 : Le choc de la lettre ouverte de 45 entreprises

Le 3 juillet, 45 grandes entreprises européennes, dont ASML, Airbus, SAP, Mercedes et BNP Paribas, ont demandé un "arrêt de l'horloge de deux ans" dans une lettre ouverte. "Des réglementations ambiguës et redondantes nuisent à la compétitivité de l'industrie européenne de l'IA", avertit la lettre de 35 paragraphes. Soutenue par l'European AI Champions Initiative (AICI), qui compte plus de 110 membres, la lettre a été relayée par Silicon Angle, qui a rapporté que "des réglementations précipitées creuseraient l'écart avec la Chine et les États-Unis", et le Financial Times britannique l'a présentée en première page.siliconangle.com


Chapitre 3 : Divergences politiques : le Premier ministre suédois et le ministre du numérique

Les pays nordiques ont répondu aux appels des entreprises. Le Premier ministre suédois, Ulf Kristersson, a déclaré que "les textes sont trop complexes et créent de la confusion sur le terrain", soutenant l'idée d'un report. Le ministre allemand du numérique, Volker Wissing, a également averti que "lancer sans directives ni normes prêtes entraînera des accidents". De plus, certains membres du comité de l'industrie du Parlement européen envisagent d'inclure un "paquet de simplification" dans une révision omnibus d'ici la fin de l'année.cio.comlinkedin.com


Chapitre 4 : La pression des lobbies IT américains et du CCIA

Les grandes entreprises américaines comme Alphabet, Meta et Apple se joignent aux entreprises européennes. Le groupe de lobbying IT CCIA Europe a soumis une lettre lors du sommet du 25 juin, demandant de "suspendre l'application tant que les normes ne sont pas prêtes". Une enquête d'AWS a révélé que "les deux tiers des entreprises européennes ne comprennent pas les obligations". Les entreprises américaines commencent à déclarer qu'elles "préfèrent investir dans des projets en Amérique ou en Asie, où les réglementations sont claires, plutôt que dans un marché européen opaque".reuters.comcio.com


Chapitre 5 : Le cri des startups - Mistral et Black Forest Labs

Pour les petites startups d'IA, c'est une question de survie. Les entreprises comme Mistral AI en France et Black Forest Labs en Allemagne ont signé une déclaration commune affirmant qu'"il est injuste que les startups, avec des ressources limitées en fonds et en personnel, soient soumises aux mêmes exigences documentaires que les grandes entreprises". Dans une interview avec Sifted, le VP de Mirakl a exprimé son inquiétude : "Si les critères de 'modification substantielle' mal définis varient d'un pays à l'autre, nous devrons faire face à 27 interprétations différentes".sifted.eu


Chapitre 6 : Les réseaux sociaux divisés

Le hashtag #StopTheClockAIAct a enregistré 75 000 tweets sur X entre le 3 et le 5 juillet (estimation de Brandwatch). Le tweet le plus retweeté du camp favorable a déclaré : "Si nous atteignons le 2 août avec les textes actuels, l'Europe deviendra un désert d'innovation" (représentant @AI_Champs). En revanche, l'ONG de défense des droits humains @Rights4EU a répliqué : "Ne cédez pas au lobbying du capitalisme de surveillance", obtenant environ 18 000 likes. Sur LinkedIn, le post du journaliste Luca Bertuzzi de MLex a suscité plus de 800 réactions, soulevant la question juridique : "La Commission peut-elle retarder l'application seule ?"linkedin.com


Chapitre 7 : Les préoccupations des associations de consommateurs et des académies

L'Organisation européenne des consommateurs (BEUC) critique le report, affirmant qu'il retarderait de deux ans la protection des consommateurs. L'Académie européenne d'éthique de l'IA (EAIE) avertit dans une déclaration que "si les rapports de transparence sont retardés, les citoyens ordinaires continueront de souffrir des IA opaques". Les universitaires proposent de séparer les discussions sur la "sécurité technique" et la "rapidité de la réglementation", suggérant un compromis qui priorise "l'évaluation des risques et la mise en place d'un système d'audit" ainsi que "l'obligation de divulguer les paramètres des modèles".


Chapitre 8 : Les retards dans les normes techniques

L'AI Act repose sur plus de 200 normes techniques élaborées par le Comité européen de normalisation (CEN-CENELEC), mais seules un peu plus de 30 % sont actuellement disponibles en version préliminaire. Les indicateurs d'évaluation tels que le "test de non-toxicité" ou la "mesure de l'efficacité énergétique" manquent d'un consensus académique suffisant. Le personnel de la Commission reconnaît que même en doublant la vitesse de développement des normes EN, elles ne seront pas prêtes avant début 2026. Le retard des directives n'est qu'un reflet de cette réalité.


Chapitre 9 : Comparaison internationale : la "souplesse rapide" des États-Unis et de la Chine, la "prudence lente" de l'UE

Les États-Unis encouragent une approche dirigée par le secteur privé avec une "soft law" combinant décret présidentiel et cadre NIST, tandis que la Chine impose un "contrôle de sécurité avant expédition" dans ses réglementations temporaires sur l'IA générative, tout en encourageant le développement précoce avec un "bac à sable réglementaire". En revanche, l'UE vise une harmonisation rapide avec des règlements juridiquement contraignants, mais les coûts et le temps nécessaires à l'élaboration des normes constituent un goulot d'étranglement. Selon l'Institut de recherche économique IFO, le fardeau de conformité à l'IA pour les entreprises de l'UE est 1,7 fois supérieur à celui des États-Unis et 2,4 fois supérieur à celui de la Chine.


Chapitre 10 : Le dilemme de la supervision basée sur les risques selon les experts

Parmi les praticiens de la réglementation, le défi est de concilier "supervision basée sur les risques" et "modèle hybride d'auto-déclaration". Dans une interview avec le magazine CIO, Daniel Friedländer, représentant européen du CCIA, critique les textes actuels pour imposer des obligations excessives aux fournisseurs de modèles, tout en rendant floue la responsabilité des entreprises utilisatrices.


D'un autre côté, lors d'un panel de discussion de l'IAPP, Michael McNamara, député européen élu en Irlande, a déclaré que "le report est réaliste, mais il doit être accompagné de lignes directrices provisoires contraignantes pour compenser l'absence de normes, sinon il sera vidé de sa substance".cio.comiapp.org


Chapitre 11 : Analyse de scénarios : trois futurs possibles

  1. Scénario de report complet (probabilité 45 %)
    Arrêt de l'horloge de deux ans + adoption d'un paquet de simplification des textes. Les entreprises passent à des rapports de transparence volontaires en attendant l'élaboration des normes.

  2. Scénario de report limité (40 %)
    Retard de six mois à un an uniquement pour la partie GPAI. Les autres applications à haut risque suivent le calendrier prévu. L'UE appelle cela un "lancement fractionné".

  3. Maintien du calendrier actuel (15 %)
    Application le 2 août. Publication des directives à la fin de l'année. Les décisions de non-conformité se concentrent après le 2 août 2026, et les trois premières années restent une "réglementation symbolique".


Chapitre 12 : Recommandations pratiques pour les entreprises

  • Inventaire des risques : Faire l'inventaire de l'utilisation des modèles GPAI en les classant en "fournisseurs/déployeurs".

  • Modèle de transparence : Publier à l'avance un aperçu des données d'entraînement et du processus de mesure de la consommation d'énergie pour réduire les coûts de révision une fois les directives établies.

  • Mise en place d'un point de contact : Concevoir provisoirement un canal de rapport d'incidents vers le Comité européen de l'IA et les autorités nationales de supervision.

  • Participation aux forums de normalisation : Intégrer la technologie de l'entreprise dans les propositions de normes pour réduire les coûts des tests de conformité ultérieurs.


Conclusion : Un "long été" autour de la souveraineté numérique

L'objectif de l'UE avec l'AI Act, à savoir une "IA centrée sur l'humain et digne de confiance", est un double objectif difficile à atteindre en même temps que la compétitivité industrielle. Le débat sur le report met en lumière ce dilemme, agissant comme un "papier de tournesol". Le 2 août, est-ce l'horloge ou les règles qui s'arrêteront ? Seul le ciel d'été de Bruxelles le sait. Cependant, les entreprises n'ont d'autre choix que de progresser vers une "transparence volontaire" en prévision de la force obligatoire à venir.


Articles de référence

L'UE retardera-t-elle l'application de son AI Act ?
Source : https://www.thehindubusinessline.com/business-tech/will-the-eu-delay-enforcing-its-ai-act/article69767660.ece

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.