Anthropic et le dilemme de l'industrie de l'IA : "La sécurité avant tout" est censée être la priorité — Qui a poussé Anthropic dans ses retranchements ?

Anthropic et le dilemme de l'industrie de l'IA : "La sécurité avant tout" est censée être la priorité — Qui a poussé Anthropic dans ses retranchements ?

1) Les entreprises qui refusent sont traitées comme un "risque pour la sécurité nationale" - Contours de l'affaire

Un vendredi après-midi, la pire nouvelle est tombée pour Anthropic. Il a été rapporté que l'administration américaine rompait ses relations avec l'entreprise et l'excluait des transactions liées à la défense. Cela a été déclenché par le refus du PDG Dario Amodei de se plier à des demandes qui ouvriraient la voie à une "surveillance massive des citoyens américains" et à l'utilisation d'armes entièrement autonomes capables de sélectionner et de tuer des cibles sans intervention humaine. En conséquence, un contrat de près de 200 millions de dollars est en péril, et il est possible que l'entreprise ne puisse plus travailler avec d'autres entreprises liées à la défense.


Ce qui rend cette situation compliquée, c'est qu'elle ne se résume pas simplement à un "conflit contractuel entre le gouvernement et une entreprise privée". Du jour au lendemain, si une étiquette de "cette IA est dangereuse" ou de "menace pour la chaîne d'approvisionnement" est apposée, cela ne paralyse pas seulement l'entreprise concernée, mais également toute la chaîne d'approvisionnement et les entreprises partenaires.

DefenseScoop souligne également que cette attitude intransigeante pourrait jeter un froid sur l'ensemble des entreprises d'IA de pointe.


2) Le piège pointé par TechCrunch : le gouvernement n'est pas le seul ennemi

Ce qui est intéressant dans l'article de TechCrunch, c'est qu'il ne se contente pas de diviser le débat en "le gouvernement est tyrannique / l'entreprise a raison". L'article emprunte le point de vue de Max Tegmark, physicien au MIT et fondateur du Future of Life Institute, pour poser une question plus douloureuse.

Pourquoi n'y avait-il pas de "loi" pour arrêter ce genre de situation dès le départ ?

La réponse de Tegmark est cinglante. Bien qu'Anthropic ait mis en avant la "sécurité d'abord", l'industrie dans son ensemble n'a pas soutenu de "réglementation contraignante", préférant dire "faites-nous confiance, nous le ferons volontairement", et a repoussé la réglementation, y compris par le lobbying. En conséquence, bien qu'il existe des réglementations pour la sécurité alimentaire, il n'y en a pas pour l'IA - en d'autres termes, "l'IA est moins réglementée qu'un sandwich".


C'est ici que le titre de l'article, "Le piège qu'Anthropic a construit pour lui-même", prend tout son sens. Même si l'on affiche une "ligne rouge éthique" en refusant la surveillance massive ou les armes autonomes, sans base légale pour la soutenir, dès que l'autre partie (gouvernement ou client) se montre agressive, on tombe dans le piège.


"Si ce n'est pas interdit par la loi, cela peut être exigé" - cette réalité s'est manifestée de la manière la plus crue possible.


3) Un autre point ironique : la bannière de la sécurité et l'historique de "coopération"

Dans l'article, Tegmark mentionne également qu'Anthropic a coopéré avec les agences de défense et de renseignement depuis au moins 2024, soulignant le décalage entre la marque et la réalité.

 
Ce point est particulièrement inflammable sur les réseaux sociaux. Car l'opinion publique tend à comprendre les choses en se rangeant soit du côté des "idéalistes totalement purs", soit en les considérant comme "finalement du même acabit".


En réalité, les réactions sur les réseaux sociaux ont été divisées en deux.

  • Côté louanges : "Dire NON à la surveillance et aux armes autonomes est important", "Il est injuste de punir une entreprise qui respecte ses lignes rouges"

  • Côté critiques : "Si vous avez coopéré avec la défense tout en prônant la sécurité d'abord, pourquoi jouer les victimes maintenant ?", "Ils paient simplement le prix de leur aversion pour la réglementation"


Cette "opposition binaire" complique en soi le débat sur la gouvernance de l'IA. La réalité est souvent grise, les entreprises oscillent entre idéaux et affaires, et les gouvernements entre sécurité nationale et libertés civiles. Mais les controverses ne tolèrent pas le gris.


4) Riposte à la rhétorique "pour battre la Chine" - et redéfinition de la "sécurité nationale"

Un autre point central de l'article est la rhétorique de "perdre face à la Chine". C'est un argument souvent utilisé pour s'opposer à la réglementation.


En réponse, Tegmark cite l'exemple de la Chine qui s'oriente vers l'interdiction des IA anthropomorphiques (comme les partenaires IA) pour montrer qu'ils ne développent pas tout sans limite. De plus, une superintelligence incontrôlable pourrait menacer la gouvernance de son propre gouvernement avant même celle d'un pays ennemi,ce qui en fait une menace pour la sécurité nationale plutôt qu'un atout.


Ce point de vue trouve facilement écho sur les réseaux sociaux. Ce n'est pas un simple axe "promotion ou réglementation", mais une logique selon laquelle "si c'est incontrôlable, c'est une menace même pour un allié". En réalité, bien que le gouvernement utilise le terme "sécurité" pour justifier l'exclusion, Tegmark l'utilise pour souligner les dangers de l'accélération du développement.


Avec le même mot, on arrive à des conclusions opposées. C'est là que réside la dangerosité du langage politique à l'ère de l'IA.


5) La "solidarité" et "l'opportunisme" accélérés par les réseaux sociaux

Ce qui rend cet événement typique de l'ère des réseaux sociaux, c'est que les réactions commencent à influencer les décisions.


(1) Lettre ouverte des employés
Selon TechCrunch, des employés de Google et OpenAI ont signé une lettre ouverte soutenant la ligne rouge d'Anthropic (refus de la surveillance massive et des armes entièrement autonomes) et demandant à leur propre entreprise de faire de même. La lettre cite également des propos tels que "ils essaient de nous diviser par la peur".


(2) Publications de personnalités influentes
L'article mentionne également que Jeff Dean de Google a posté sur X que "la surveillance massive va à l'encontre du quatrième amendement et a un effet dissuasif sur la liberté d'expression".

 
Ces "expressions personnelles" se diffusent plus facilement que les déclarations officielles des entreprises et finissent par créer "l'air du temps" dans l'industrie.


(3) Effet de "produit" ironique
TechCrunch rapporte en outre que l'attention suscitée par la controverse a propulsé l'application Claude à la deuxième place de l'App Store américain (mentionnant également les données de classement). La controverse a augmenté la visibilité du service - un résultat typique de l'économie des réseaux sociaux, pour le meilleur ou pour le pire.

6) La déclaration "même ligne" d'OpenAI est-elle authentique ?

Ce qui a encore compliqué la situation, c'est l'annonce par OpenAI d'un accord avec le Département de la Défense, intégrant des principes de sécurité interdisant la surveillance massive et les armes autonomes, comme l'a expliqué Sam Altman sur X. Guardian rapporte qu'il a également demandé que les mêmes conditions soient proposées à d'autres entreprises d'IA.


Ici encore, les réactions sur les réseaux sociaux sont divisées.

  • Optimistes : "Si les concurrents tracent la même ligne, la 'stratégie de division' du gouvernement ne fonctionnera pas"

  • Sceptiques : "Avoir des 'clauses' et 'les respecter dans la pratique' sont deux choses différentes", "N'est-ce pas juste une stratégie pour conquérir le marché ?"


L'idée de Tegmark de "procéder à une vérification indépendante avant la mise sur le marché, comme pour les essais cliniques", répond précisément à ce manque de confiance. Pas de promesses, mais des vérifications. Pas de bonne volonté, mais des institutions.

7) Ce qui va se passer : la gouvernance de l'IA passe de "l'éthique d'entreprise" à la "conception institutionnelle"

Ce que cette controverse a mis en évidence, c'est que la sécurité de l'IA ne peut pas être protégée uniquement par les "principes de chaque entreprise". Les principes peuvent changer. Ils peuvent être révoqués par des décisions de gestion. Si le gouvernement change, les conditions des contrats peuvent également changer. Comme le souligne TechCrunch, le contexte dans lequel une entreprise assouplit ses engagements de sécurité auto-imposés alimente également le scepticisme.


C'est pourquoi le débat doit passer de "Anthropic est-il bon ou mauvais ?" à "Qu'est-ce qui doit être encadré par la loi, qu'est-ce qui doit être audité de manière indépendante, et où placer la transparence ?".


Cet événement pourrait indiquer que l'échéance du devoir que l'industrie de l'IA a longtemps reporté - le rêve de "s'en sortir avec l'autorégulation" - est arrivée à son terme.



Sources