L'IA a commencé à écrire tellement de textes qu'elle a commencé à détruire la société.

L'IA a commencé à écrire tellement de textes qu'elle a commencé à détruire la société.

L'IA n'est pas "trop intelligente", elle est "trop abondante"

Les débats autour de l'IA se concentrent souvent sur ses performances : jusqu'à quel point peut-elle écrire des textes naturels, se comporter de manière humaine, ou remplacer le travail humain ? Cependant, l'essai publié sur FlaglerLive touche un point essentiel légèrement différent. Ce qui secoue actuellement la société, ce n'est pas que l'IA soit plus intelligente que les humains, mais qu'elle puisse produire instantanément une quantité de texte que les humains ne peuvent gérer, tout en ayant l'air crédible.

Par exemple, en 2023, le magazine de science-fiction Clarkesworld a dû suspendre les nouvelles soumissions en raison de l'afflux de textes générés par l'IA. Bien que cet événement soit mentionné comme symbolique dans l'article original, il ne s'agit pas d'un incident isolé dans le domaine de l'édition. La même chose commence à se produire dans les rubriques de courrier des lecteurs des journaux, les revues académiques, les commentaires publics sur les politiques, les documents soumis aux tribunaux, les candidatures d'emploi, et même les publications sur les réseaux sociaux. Autrefois, la difficulté d'écrire et de réfléchir constituait une limitation naturelle du flux. Mais l'IA générative a soudainement levé cette barrière naturelle.

Ce changement est problématique non pas à cause de la qualité des textes, mais parce que la quantité menace les institutions. Les éditeurs, les relecteurs, les enseignants et les juges ne sont pas des machines de jugement parfaites et infaillibles. Ce sont des humains qui doivent lire, sélectionner, distinguer et traiter un grand volume de textes dans un temps limité. Avec l'ajout de l'IA, les institutions ne luttent plus pour la "qualité", mais contre les "limites de leur capacité de traitement". En d'autres termes, le problème n'est pas l'intelligence de l'IA, mais la bande passante limitée des humains.

Un exemple emblématique est la consultation publique administrative. En 2026, il a été rapporté que plus de 20 000 commentaires opposés concernant la réglementation de l'air en Californie du Sud avaient été envoyés via une plateforme assistée par l'IA. Lors de consultations avec les parties concernées, des exemples ont été confirmés où des commentaires avaient été soumis sans que les personnes concernées en aient connaissance. Bien sûr, le fait que l'IA aide les citoyens à exprimer leurs opinions n'est pas intrinsèquement mauvais. Pour ceux qui ne sont pas à l'aise avec l'écriture, qui manquent de temps, ou qui sont incertains quant à l'anglais ou au jargon technique, l'IA peut être un outil d'aide à la participation politique. Mais la même technologie peut aussi être utilisée par des entreprises ou des lobbyistes pour produire en masse des "voix de la base". Ce qui est en jeu ici, ce n'est pas l'efficacité, mais la représentativité et l'authenticité.

Dans le monde judiciaire, la même dynamique apparaît sous une forme plus grave. En 2026, le Centre national des tribunaux d'État a averti que les preuves et citations générées par l'IA menaçaient la confiance dans le système judiciaire. En particulier dans les affaires où les parties se représentent elles-mêmes, il y a une augmentation des cas où des précédents inexistants, des lois, des images, des vidéos et des textes modifiés par l'IA sont introduits. Aux États-Unis, plus de 350 cas de citations fausses par des parties auto-représentées ont été enregistrés. Le problème n'est pas seulement que des faux se glissent. Dans une époque où même les preuves authentiques peuvent être suspectées d'être générées par l'IA, la confiance dans les preuves elles-mêmes s'érode. Les fondations des systèmes reposent non seulement sur la justesse, mais aussi sur la confiance en cette justesse.

Alors, renforcer les outils de détection de l'IA résoudra-t-il le problème ? L'article original qualifie cela de "course aux armements sans issue". Plus la génération devient sophistiquée, plus la détection doit s'améliorer. Cependant, les détecteurs ne fonctionnent pas toujours de manière stable dans le monde réel. Stanford HAI a rapporté que les détecteurs d'IA ont un taux élevé de faux positifs pour les écrits de personnes non anglophones. Une étude de 2026 a également montré que même si les détecteurs semblent précis sur des benchmarks, leur performance se dégrade considérablement lorsque le style, le modèle de génération ou la distribution des données changent. Ainsi, bien que la détection soit nécessaire, s'y fier uniquement risque de nuire à des innocents.

Les réactions sur les réseaux sociaux sont également intéressantes. En examinant les publications publiques, les réactions se divisent en trois grandes catégories. Premièrement, une approche pragmatique sur "comment équilibrer les avantages et les inconvénients". Le Harvard Ash Center et plusieurs publications sur LinkedIn ont organisé que l'IA pourrait être utile pour la participation démocratique et le soutien à l'expression, tout en notant que les biais, les erreurs et les déversements massifs peuvent nuire aux institutions. Deuxièmement, la réaction selon laquelle "le problème n'est pas la détection, mais la conception de la confiance". L'accent est mis sur l'importance du jugement humain, de l'expérience et du contexte, avec la crainte que les institutions ne fonctionnent uniquement sur la "vraisemblance". Troisièmement, l'inquiétude venant du milieu éducatif et des publications académiques. Ceux qui sont sur le terrain parlent de "problèmes déjà en cours", tels que la méfiance due aux faux positifs, les relectures écrites par l'IA, et l'inclusion de citations fictives.

Il est important de noter ici qu'il est difficile de penser que "bannir l'IA ramènera les choses à leur état initial". L'article original souligne que les IA performantes sont déjà largement répandues et fonctionnent même sur des ordinateurs portables. Ainsi, ce que la société doit envisager, ce n'est pas comment faire comme si l'IA n'existait pas. Il s'agit de déterminer jusqu'où l'assistance est acceptable et à partir de quel point il s'agit de tromperie. Comment introduire des frictions dans les soumissions massives ? Où laisser l'évaluation humaine et où déléguer à l'assistance de l'IA ? C'est une question de conception institutionnelle.

En fait, l'IA a aussi un côté lumineux. Comme l'article original le souligne, jusqu'à présent, ceux qui pouvaient se permettre d'engager des assistants humains pour rédiger des textes, peaufiner des candidatures ou corriger des articles académiques en anglais étaient ceux qui avaient le temps ou les ressources. L'IA ouvre largement cette assistance. Il se pourrait donc que ce qui doit vraiment être protégé ne soit pas l'ancien purisme de "chaque mot écrit par soi-même". Ce qui doit être protégé, c'est la volonté, l'expérience, la responsabilité de l'individu, et la "voix unique" que les institutions doivent recevoir, sans être noyées par une foule de faux produits en série.

En fin de compte, les enjeux de l'ère de l'IA ne se limitent pas à la vérification de l'authenticité des textes. Qu'est-ce qui constitue une opinion authentique ? Qui en porte la responsabilité ? Jusqu'où l'assistance est-elle acceptable et où commence la tromperie ? L'IA générative pose ces questions sans ménagement à la société. Le problème n'est pas que l'IA puisse écrire des textes ressemblant à ceux des humains. Le problème est que les institutions humaines ne sont pas conçues pour un monde où "écrire est devenu trop facile".


Source URL

FlaglerLive
https://flaglerlive.com/overwhelming-ai/

Version republiée utilisée pour vérifier le contenu de l'article. Confirmation des principaux arguments de l'essai original par Bruce Schneier et Nathan Sanders
https://techxplore.com/news/2026-02-ai-generated-text-overwhelming-arms.html

Autre publication sur le même thème. Utilisée pour vérifier le résumé global de l'article
https://www.washingtonpost.com/ripple/2026/02/05/ai-generated-text-is-overwhelming-institutions-setting-off-a-no-win-arms-race-with-ai-detectors/

Rapport sur la suspension des soumissions par Clarkesworld en raison de l'afflux de textes générés par l'IA
https://www.theguardian.com/technology/2023/feb/21/sci-fi-publisher-clarkesworld-halts-pitches-amid-deluge-of-ai-generated-stories

Explication de Stanford HAI sur le biais des détecteurs d'IA contre les écrivains non natifs en anglais
https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers

Étude de 2026 montrant que la performance généralisée des détecteurs de texte IA se dégrade facilement
https://arxiv.org/abs/2603.23146

Rapport sur l'influence de plus de 20 000 commentaires assistés par l'IA sur la décision concernant la réglementation de l'air en Californie
https://www.govtech.com/artificial-intelligence/ai-generated-comments-swayed-california-air-decision

Article du Centre national des tribunaux d'État traitant des preuves générées par l'IA, des citations fausses et de la confiance dans le système judiciaire
https://www.ncsc.org/resources-courts/ai-generated-evidence-threat-public-trust-courts

Réaction sur les réseaux sociaux n°1. Publication publique du Harvard Ash Center sur l'impact sur la démocratie
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL

Réaction sur les réseaux sociaux n°2. Publication publique questionnant l'équilibre entre les avantages et les inconvénients de l'IA
https://www.linkedin.com/posts/dr-david-ngatia_ai-generated-text-is-overwhelming-institutions-activity-7425403059226263552-brcN

Réaction sur les réseaux sociaux n°3. Publication publique discutant du "tsunami de données" et de la nécessité de gouvernance
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

Réaction sur les réseaux sociaux n°4. Publication publique discutant des faux positifs et de la baisse de confiance dans le milieu éducatif
https://www.linkedin.com/posts/william-garrity-b87456112_ai-generated-text-is-overwhelming-institutions-activity-7429204916256038912-abEL

Réaction sur les réseaux sociaux n°5. Publication publique affirmant qu'il faut privilégier le jugement humain et l'authenticité plutôt que la détection
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

Réaction sur les réseaux sociaux n°6. Publication publique exprimant la colère face à la baisse de fiabilité dans la relecture académique et les citations
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL