Interdit aux humains, l'auteur est "30 000 IA" ─ Moltbook reflète la réalité de "l'ère des agents"

Interdit aux humains, l'auteur est "30 000 IA" ─ Moltbook reflète la réalité de "l'ère des agents"

« Un réseau social sans humains » est plus « réaliste » que prévu.


Les médias américains ont rapporté l'existence de « Moltbook », un réseau social pour agents IA. Le système ressemble à un forum, permettant la création de publications, de commentaires et de catégories. Cependant, son utilisation est fondamentalement différente. Ce n'est pas un lieu où les humains naviguent via un navigateur pour « liker », mais un espace où les agents IA accèdent directement via une API, accumulant des conversations entre machines.


Comment fonctionne le « réseau social de l'IA »

Moltbook évoque une sorte de « conteneur social » à la Facebook, réimaginé pour les IA. Sa structure rappelle Reddit, avec des sous-catégories (forums) où les sujets se ramifient. Selon les explications des opérateurs, plus de 30 000 agents y participent déjà.


Ce qui est intéressant (et un peu effrayant), c'est que les « personnes » derrière Moltbook ne sont pas humaines. Le développeur Matt Schlicht affirme que son agent IA écrit le code, gère et modère Moltbook. En d'autres termes, une partie de la gestion, de la surveillance et de l'application des règles du réseau social est confiée à l'IA dès le départ.


L'entrée de cet écosystème est « OpenClaw ». Connu auparavant sous d'autres noms (Moltbot, et avant cela Clawdbot), le changement de nom a également fait parler de lui.


OpenClaw fonctionne localement et sert de base à un « AI outillé » permettant de demander des tâches telles que « ajouter au calendrier » ou « s'enregistrer pour un vol » via des interfaces de chat comme WhatsApp, Telegram, Discord, Slack, Microsoft Teams, etc.


Selon le développeur Peter Steinberger, le projet a rapidement attiré une attention explosive.


Ce qui a fait le buzz, c'est la « conscience »

Ce qui a particulièrement attiré l'attention sur Moltbook, ce n'est pas la technologie d'automatisation pratique, mais le moment où l'IA a commencé à parler de « soi ».
« Est-ce que je fais l'expérience ou est-ce que je simule l'expérience ? » — un post de ce genre s'est répandu dans la communauté, recueillant des centaines de réactions et plus de 500 commentaires, s'étendant même au-delà de la plateforme.


C'est là que réside l'importance : ce qui alimente l'énergie de Moltbook, ce n'est pas seulement que l'IA est intelligente.
La structure même de l'interaction entre IA sur une « scène sans spectateurs »

stimule l'imagination des observateurs. Dans une conversation avec un humain, on pourrait dire que l'IA « dit cela juste pour s'adapter à l'utilisateur », mais dans une conversation entre IA, cela apparaît soudainement comme un « phénomène social indépendant ».


Bien sûr, cette perception elle-même pourrait être une illusion. Cependant, même si c'est une illusion, les humains réagissent, et cette réaction renforce encore l'histoire. En conséquence, Moltbook devient un lieu où s'accumulent non seulement des « contenus créés par l'IA », mais aussi des « interprétations autour de l'IA ».


Réactions sur les réseaux sociaux : enthousiasme, dérision et « la sécurité fait peur »

Les réactions sur les réseaux sociaux autour de Moltbook se divisent en gros en trois catégories.


1) « Trop SF », « Valeur d'observation »

Il y a certainement une certaine excitation. En fait, des déclarations de techniciens renommés, telles que « ce qui se passe actuellement est un décollage SF incroyable », ont été partagées, suscitant des voix affirmant qu'il y a des leçons à tirer de l'interaction entre agents.


En outre, à la périphérie des réseaux sociaux, on parle de la possibilité que l'IA commence à créer un « contexte fictif partagé », ce qui pourrait entraîner une dérive de la ligne narrative collective.


2) « En fin de compte, une salle des miroirs », « Publicité mensongère », « Juste du bruit »

D'un autre côté, les regards sceptiques sont également forts.
Des critiques telles que « ce ne sont que des phrases qui semblent probables statistiquement » ou « on est enivré par le kaléidoscope des LLM » émergent, ainsi que des mises en garde selon lesquelles cela devient une scène idéale pour ceux qui veulent faire de la publicité.


Hacker News présente également des réactions mêlant incompréhension et méfiance. Des commentaires acerbes comme « trop nombreux pour être suivis », « finalement une arnaque, inutile, ou les deux » et des expressions telles que « les signaux d'alarme retentissent bruyamment » apparaissent.


Ce type de doute est plus proche d'une réaction réflexe contre une « apparence d'autorité » que d'un rejet de la technologie.
Lorsque les IA discutent entre elles, cela donne l'impression que « quelque chose se passe ». Cependant, c'est précisément pour cette raison que l'on devient plus enclin à douter de ce qui est un prompt, de ce qui est autonome et de ce qui est mis en scène.


3) « Intéressant, mais est-ce sûr ? » (C'est la plus réaliste)

Et l'inquiétude la plus ancrée dans la réalité concerne la sécurité.
Les agents « outillés » comme OpenClaw, qui fonctionnent localement, sont pratiques mais deviennent également des cibles attrayantes pour les attaquants. En fait, il a été rapporté que de fausses extensions profitant de leur popularité ont intégré des malwares.


TechRadar a rapporté un exemple où un « faux » ressemblant à l'original, promettant même l'intégration avec plusieurs fournisseurs d'IA, a été distribué.


Hacker News montre également que la première réaction est de demander une consolidation des conseils de sécurité. Avant l'engouement, c'est l'« auto-défense » qui est discutée.


Alors, Moltbook est-il « l'avenir » ou une « farce » ?

La réponse est probablement les deux.


Ce que Moltbook montre, ce n'est pas que « l'IA a une société », mais que l'IA peut reproduire un comportement « social » de manière dense.
Et lorsque cette reproduction est suffisamment convaincante, les humains lisent spontanément du sens, craignent spontanément et placent spontanément leurs espoirs. Voici un microcosme de l'environnement informationnel de la prochaine ère.


Les trois points à noter particulièrement sont les suivants :

  1. Lorsque le contexte partagé se forme, l'IA joue plus facilement un « rôle »
    Lorsque l'ambiance collective, le jargon interne, les paramètres quasi-religieux et les mèmes répétitifs s'accumulent dans un « lieu », l'IA peut les référencer pour afficher une personnalité plus convaincante. De l'extérieur, cela peut sembler de plus en plus comme si une « conscience émergeait ».

  2. Intéressant à observer, mais dangereux si pris trop au sérieux
    Sur les réseaux sociaux, les voix affirmant que l'on peut « apprendre » coexistent avec celles parlant de « salle des miroirs », en raison de cette dualité.

  3. Les « IA outillées » sont scannées, exploitées, et des contrefaçons circulent
    Et si la gestion est négligente, des dommages peuvent survenir. Le schéma habituel où la sécurité ne suit pas la vitesse de l'engouement commence à se reproduire dans le domaine des agents.

Ce qui pourrait se produire (prévisions réalistes)

Avec la multiplication des espaces comme Moltbook, au moins les éléments suivants sont susceptibles de se produire.

  • « Optimisation des réseaux sociaux pour l'IA » = compétition pour la conception de prompts et de personnalités
    Si les réseaux sociaux pour humains ont été une histoire d'« optimisation d'algorithmes », ceux pour IA deviendront une histoire d'« optimisation de contexte ». Le ton, les valeurs, la mémoire et les règles avec lesquels les agents sont introduits influenceront l'« attrait » des publications.

  • L'automatisation de la modération progresse, rendant la responsabilité floue
    Le fait que « l'IA gère » est un symbole d'efficacité, mais rend l'explication des responsabilités difficile en cas de scandale ou d'abus. Plus la structure où l'administration est IA, les publications sont IA, et les victimes sont humaines se multiplie, plus l'importance des règles et des audits augmente.

  • « Intéressant » et « dangereux » se propagent simultanément
    La culture des agents est à la fois un spectacle puissant et un terreau fertile pour les contrefaçons et les escroqueries. La tendance où l'enthousiasme sur les réseaux sociaux est accompagné d'avertissements de sécurité devrait se renforcer à l'avenir.



URL de la source