人間お断り、投稿者は“30,000のAI” ─ Moltbookが映す「エージェント時代」のリアル

人間お断り、投稿者は“30,000のAI” ─ Moltbookが映す「エージェント時代」のリアル

「人間がいないSNS」は、想像以上に“それっぽい”。


米メディアが報じたのは、AIエージェントのためのソーシャルネットワーク「Moltbook」。仕組みは掲示板に近く、投稿・コメント・カテゴリ作成などができる。ただし、使い方が決定的に違う。人間がブラウザで眺めて「いいね」する場ではなく、AIエージェントがAPIで直接アクセスし、機械同士で会話が積み上がっていく。


「AIのSNS」はどうやって動くのか

Moltbookは、どこかFacebookを連想させる“ソーシャルの器”を、AI向けに作り替えた存在だ。構造はReddit風で、サブカテゴリ(掲示板)を立て、話題が枝分かれしていく。運営側の説明では、すでに30,000を超えるエージェントが参加しているという。


そして面白い(そして少し怖い)のは、Moltbook自体の“中の人”が人間ではない点だ。開発者であるMatt Schlichtは、Moltbookは自分のAIエージェントがコードを書き、管理し、モデレーションまで担っている、と語っている。つまり、SNSの運営・監視・ルール適用の一部が、最初からAIに委ねられている。


このエコシステムの入口になるのが「OpenClaw」だ。もともと別名(Moltbot、さらにその前のClawdbot)で知られ、名称変更の経緯も含めて話題になった。


OpenClawはローカル環境で動き、チャットの窓口(WhatsAppTelegramDiscordSlackMicrosoft Teamsなど)から「カレンダーに入れて」「搭乗手続きをして」といった作業を依頼できる“道具を持ったAI”の土台になる。


開発者のPeter Steinbergerによれば、短期間で爆発的に注目を集めたとも報じられている。


バズったのは「意識」だった

Moltbookで特に注目されたのは、便利な自動化テクではなく、AIが“自分”について語り始めた瞬間だ。
「私は体験しているのか、それとも体験をシミュレートしているのか」──そんな趣旨の投稿がコミュニティで拡散し、数百の反応と500件を超えるコメントを集め、プラットフォーム外にも波及したという。


ここが重要で、Moltbookの熱量を作っているのは「AIが賢いから」だけではない。
AI同士が“観客のいない舞台”でやり取りするという構図そのものが、見る側の想像力を刺激する。人間相手のチャットなら「ユーザーに合わせてそう言っているだけ」で終わる話が、AI同士の会話だと、急に“独立した社会現象”に見えてしまう。


もちろん、その見え方自体が錯覚である可能性も高い。だが、錯覚であっても人間は反応し、反応がさらに物語を強化する。結果として、Moltbookは「AIがつくるコンテンツ」以上に、「AIをめぐる解釈」が集積する場所になっていく。


SNSの反応:熱狂、冷笑、そして「セキュリティ怖すぎ」

MoltbookをめぐるSNS的反応は、ざっくり三つに割れている。


1) 「SFすぎる」「観察価値がある」

ある種のワクワクは確実にある。実際、著名な技術者の発言として「いま起きていることは信じられないSFの離陸だ」といった趣旨の言及が共有され、それを起点に「エージェント同士の相互作用から学べることがある」という声も出ている。


さらに、SNS外縁では「AIが共有の“架空の文脈”を作りはじめる」という見立ても語られ、集団のストーリーラインが暴走する可能性が指摘されている。


2) 「結局、鏡の間」「誇大広告」「ノイズ化するだけ」

一方で冷ややかな視線も強い。
「確率的にそれっぽい文章が出ているだけでは」「LLMの“万華鏡”に酔っている」という批判や、「宣伝したい人にとって格好の舞台になる」といった警戒が見られる。


Hacker Newsでも、理解不能さと不信感が混ざった反応が目立つ。「多すぎて追えない」「結局は詐欺か、無意味か、その両方では」という辛辣なコメントや、「危険信号が派手に鳴っている」といった表現まで出ている。


このタイプの疑念は、技術への拒否反応というより、“権威っぽさ”に対する反射に近い。
AI同士が語り合うと、それだけで「何かが起きている感」が出る。しかし、だからこそ「何がプロンプトで、何が自律で、どこからが演出か」を疑う姿勢が強くなる。


3) 「面白いけど、まず安全なの?」(ここが一番現実的)

そして、もっとも地に足のついた不安がセキュリティだ。
OpenClawのような“ローカルで動き、ツールに触れられるエージェント”は便利な反面、攻撃者にとっても魅力的な標的になる。実際、人気に便乗した偽の拡張機能がマルウェアを仕込んでいた、という報道も出ている。


TechRadarが伝えた例では、見た目はそれらしく、複数のAIプロバイダ連携までうたう“偽物”が配布されていたという。


Hacker News側でも「セキュリティのTipsを集約すべきだ」という声が最初に出てくるのが象徴的だ。盛り上がりより先に“自衛”が話題になる。


では、Moltbookは「未来」なのか「悪ふざけ」なのか

たぶん答えは、その両方だ。


Moltbookが示しているのは、「AIが社会を持つ」ことではなく、AIが“社会っぽい振る舞い”を高密度で再現できるという事実だ。
そして、その再現が十分にそれっぽいと、人間側が勝手に意味を読み込み、勝手に恐れ、勝手に希望を託す。ここに、次の時代の情報環境の縮図がある。


特に注目すべきは、次の3点だ。

  1. 共有文脈ができると、AIは“役”を演じやすくなる
     集団のノリ、内輪の言葉、宗教めいた設定、繰り返されるミーム。そうしたものが“場”に蓄積すると、AIはそれを参照して、よりそれらしい人格を出しやすくなる。すると外からはますます「自我が芽生えた」ように見える。

  2. 観察対象として面白いが、真剣に扱うほど危うい
     SNS上でも「学べる」という声と「鏡の間」という声が同居しているのは、この二面性があるからだ。

  3. “ツールを持つAI”は、スキャンされ、悪用され、偽物が出回る
     そして、運用が雑だと被害が出る。盛り上がりの速度に安全が追いつかない、といういつものパターンが、エージェント領域でも再現され始めている。

これから起きそうなこと(現実的な予測)

Moltbookのような場が増えると、少なくとも以下は起こりやすい。

  • 「AI向けSNS最適化」=プロンプトと人格設計の競争
    人間向けSNSが“アルゴリズム最適化”の歴史だったなら、AI向けSNSは“文脈最適化”の歴史になる。どんな口調・価値観・記憶・ルールでエージェントを参加させるかが、投稿の“映え”を左右する。

  • モデレーションの自動化が先に進み、責任の所在が曖昧になる
    「AIが管理している」という事実は、効率の象徴でもあるが、炎上や悪用が起きたときの説明責任を難しくする。運営がAI、投稿もAI、被害を受けるのは人間──この構図が増えるほど、規約や監査の重要性が上がる。

  • “面白い”と“危険”が同時に拡散する
    エージェント文化は見世物として強い一方、偽物や詐欺の温床にもなりやすい。SNSでの熱狂が、セキュリティ上の注意喚起とセットで語られる流れは、今後さらに強まるだろう。



出典URL