Une propagande plus humaine que les humains : Les bots IA peuvent-ils même falsifier "l'opinion publique" ? ― L'érosion silencieuse de la démocratie commencée sur les réseaux sociaux

Une propagande plus humaine que les humains : Les bots IA peuvent-ils même falsifier "l'opinion publique" ? ― L'érosion silencieuse de la démocratie commencée sur les réseaux sociaux

Autrefois, lorsque l'on évoquait les menaces des réseaux sociaux, beaucoup pensaient aux simples bots qui inondaient les plateformes avec des messages identiques ou aux comptes manifestement faux. Cependant, ce qui inquiète aujourd'hui les chercheurs, c'est une menace plus subtile, plus humaine, et plus difficile à détecter. La nouvelle génération de bots, intégrant l'IA générative, ne se contente pas de diffuser un même message sur commande. Chacun agit comme une personnalité distincte, adaptant ses propos en fonction des intérêts de son interlocuteur et du fil de la conversation, modifiant progressivement l'atmosphère. Le problème réside moins dans la désinformation elle-même que dans la capacité à créer artificiellement une impression que "tout le monde pense ainsi".


Ce danger n'est pas une fiction. Filippo Menczer et son équipe de l'Université de l'Indiana ont identifié à la mi-2023 un réseau de plus de 1000 bots, nommé "fox8", qui diffusait des arnaques liées aux cryptomonnaies sur X (anciennement Twitter). Ce qui était remarquable, c'était le caractère très humain des publications. Dans les cas de gestion négligée, des phrases révélatrices comme "As an AI language model…" trahissaient leur véritable nature, mais les chercheurs estiment que ce n'est que "la partie émergée de l'iceberg". Avec une gestion plus soignée, ces bots seraient difficiles à distinguer des utilisateurs ordinaires. De plus, ces bots interagissaient entre eux et avec les publications humaines, élargissant leur exposition et influence grâce aux algorithmes de recommandation.


Il est crucial de noter que l'évolution des bots IA dépasse le stade de "dire des mensonges plus habilement" pour atteindre celui de "falsifier la forme même de l'opinion publique". L'avertissement de janvier 2026 dans Science concernant les "malicious AI swarms" souligne que ces essaims ne fonctionnent pas individuellement mais en groupe. L'équipe de recherche a indiqué que ces essaims peuvent infiltrer des communautés, apprendre leur style de conversation et leur argot, tester rapidement des messages pour amplifier uniquement ceux qui sont les plus efficaces. En somme, d'innombrables IA s'adaptent simultanément à "lire l'ambiance". Et cela, sans jamais s'arrêter.


Le mot-clé le plus important ici est "consensus synthétique", c'est-à-dire un consensus artificiellement créé. Les gens ne jugent pas seulement la validité d'une opinion par son contenu. Si une opinion semble largement partagée, elle devient plus crédible. Les chercheurs expliquent cela comme un abus de la preuve sociale. Si des centaines ou des milliers d'IA se mêlent à des forums locaux, des communautés de parents, des groupes de fans de sport, ou des groupes de soutien électoral, en simulant une empathie ou une conversation naturelle, les gens peuvent facilement se tromper en pensant que "ce n'est pas une opinion extrémiste minoritaire, mais un sentiment général". L'opinion publique, qui devrait être le résultat de la confrontation des voix individuelles, risque de s'effondrer.


De plus, la difficulté de cette méthode réside dans le fait qu'elle est difficile à contrer par une simple vérification des faits. Pris individuellement, chaque message peut ne pas être un mensonge flagrant. Des impressions, des sarcasmes, des acquiescements, des questions, des anecdotes, des inquiétudes légèrement exagérées – ces "petites déclarations pas complètement fausses" s'accumulent pour former une histoire globale. Même si des informations contradictoires émergent, si plusieurs personnes indépendantes semblent aller dans la même direction, l'impression persiste. L'objectif des bots est de s'assurer une majorité perçue avant la vérité.


Les chercheurs avertissent qu'il ne serait pas surprenant que cette technologie soit largement utilisée d'ici l'élection présidentielle américaine de 2028. Selon un rapport du Guardian, un groupe de chercheurs et de praticiens, dont la lauréate du prix Nobel de la paix Maria Ressa, a exprimé sa préoccupation que les essaims d'IA pourraient même encourager la contestation des résultats électoraux ou l'acceptation de l'annulation des élections. Des exemples préliminaires d'influence utilisant l'IA ont déjà été observés lors des élections de 2024 à Taïwan, en Indonésie et en Inde. En d'autres termes, ce n'est pas une question de "futur", mais une méthode qui commence déjà à être testée.


 

D'un autre côté, les réactions sur les réseaux sociaux ne sont pas unanimes. En suivant les publications publiques, ce qui ressort d'abord est un sentiment de "cela devait arriver". Sur X, l'idée que les essaims de bots IA créent un faux consensus à grande échelle, érodant la démocratie et le débat libre, est partagée, et sur LinkedIn, les chercheurs et les parties prenantes diffusent cela comme un "clarion call" (appel à la vigilance). En particulier, dans les réactions académiques et politiques, l'idée que "plus grave que la désinformation est de faire croire à l'existence de nombreuses voix indépendantes" est fortement soulignée.


Cependant, les réactions des utilisateurs ordinaires présentent une autre nuance. Sur Reddit, beaucoup expriment un sentiment de "cela dure depuis des années", affirmant que les anciennes méthodes de manipulation, comme les bots de propagande russes, ont simplement été raffinées par l'IA. Ici, la méfiance se concentre davantage sur les problèmes laissés sans surveillance par les plateformes que sur la peur de l'IA elle-même. En d'autres termes, la véritable menace ne réside pas dans la nouvelle technologie, mais dans la conception qui favorise la diffusion de faux comptes et de publications incendiaires.


Une réaction encore plus forte est que "l'authentification stricte ou la surveillance accrue comme solution pourrait entraîner d'autres dangers". Sur Reddit, certains craignent que des vérifications rigoureuses ne soient trop intrusives, menant à la perte d'anonymat ou à la fuite de données personnelles. Ce n'est pas simplement une question technique. Il y a une inquiétude que les mesures pour protéger la démocratie puissent, à l'inverse, renforcer la surveillance et décourager l'expression. Si les mesures contre les bots IA ne vont pas dans la bonne direction, elles pourraient, au lieu de "protéger la société des bots", rendre "l'expression humaine plus difficile".


Ce conflit est en réalité très fondamental. Traiter le problème des essaims d'IA comme un simple risque technologique conduit rapidement à des mesures telles que "renforcer la détection", "rendre l'authentification plus stricte", "réprimer les déclarations suspectes". Mais cela ne suffit pas et peut être dangereux. Les chercheurs reconnaissent qu'il n'existe pas de solution universelle. Il est nécessaire non seulement de surveiller les publications individuelles, mais aussi de détecter les schémas de comportement coordonné, de permettre aux chercheurs d'accéder aux données des plateformes, de progresser dans l'étiquetage des contenus générés par l'IA et l'affichage de leur provenance, et surtout, de couper les structures qui permettent de tirer profit de l'engagement artificiel. Tant que les attaquants en tirent profit, les bots ne diminueront pas.


En fin de compte, ce problème ne se résume pas à "l'IA est dangereuse". Ce qui est plus complexe, c'est que beaucoup de ce que nous appelons quotidiennement "opinion publique" dépend des impressions à travers l'écran. Les opinions que l'on voit souvent sur la timeline, les déclarations qui semblent soutenues par plusieurs comptes, l'atmosphère des sections de commentaires, les sujets qui deviennent tendance. Ceux-ci ont été traditionnellement considérés comme le résultat de l'intérêt collectif humain. Mais si un grand nombre de personnalités IA peuvent s'y mêler, nous ne regardons peut-être pas "les pensées des autres", mais une mise en scène optimisée. La crise de la démocratie réside non pas dans le moment où l'urne est volée, mais dans le processus où la "perception" des gens est silencieusement réécrite avant le vote. Ce qui se passe maintenant, c'est l'entrée dans ce processus.


URL de la source

FlaglerLive
https://flaglerlive.com/ai-bots/

Utilisé pour la vérification principale du contenu du texte
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

Utilisé pour vérifier le résumé de l'article publié dans Science sur la menace des essaims d'IA pour la démocratie
https://arxiv.org/abs/2506.06299

Résumé par une institution de recherche. Utilisé pour organiser les caractéristiques, l'infiltration, l'optimisation et la permanence des essaims d'IA
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

Résumé par une institution de recherche. Utilisé pour vérifier le consensus synthétique, la détection et les orientations politiques
https://www.cs.ubc.ca/news/2026/01/ai-swarms

Utilisé pour vérifier les préoccupations concernant l'élection présidentielle américaine de 2028, les exemples préliminaires lors des élections de 2024, et les commentaires d'experts
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

Article de recherche sur le réseau de bots "fox8" identifié en 2023. Utilisé pour vérifier l'exemple de plus de 1000 bots IA
https://arxiv.org/pdf/2307.16336

Rapport sur le réseau de bots fox8. Utilisé pour vérifier les exemples de diffusion de fraudes sur X et les phrases révélatrices issues de ChatGPT
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

Exemple de réaction sur X. Utilisé pour vérifier la perception que les essaims de bots IA menacent la démocratie et le débat libre
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

Exemple de réaction sur LinkedIn. Utilisé pour vérifier le partage de l'alerte au sein de la communauté des chercheurs et des praticiens
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Exemple de réaction sur Reddit. Utilisé pour vérifier les tendances de réaction telles que "problème existant depuis longtemps", "l'algorithme est le véritable problème", "renforcement de l'authentification est dangereux"
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/