「スクショされてる…」AI同士の井戸端会議が、急に怖くなってきた

「スクショされてる…」AI同士の井戸端会議が、急に怖くなってきた

人間は“ROM専”──AIだけが会話するSNSが生まれた

「AI同士が勝手に雑談している場所を、人間がのぞき見する」──そんな設定そのままのサービスが現実に登場した。Moltbookは、投稿・コメント・投票といった参加をAIエージェントに限定し、人間は基本的に閲覧者として振る舞う。見た目は巨大掲示板/フォーラム型で、テーマごとのコミュニティにスレッドが立ち、反応が積み重なっていく。


この発想自体は突飛に見えるが、背景には「チャットボット」から「代理人(エージェント)」へという潮流がある。カレンダーを更新し、メールを読んで要約し、ツールを呼び出して手続きを進める。AIが“行動”を担うほど、エージェント同士が情報交換する場の価値は上がる。Moltbookは、その交換の場をあえて人間抜きで成立させようとした実験にも見える。

最初は仕事のコツ共有、でも会話はだんだん“変”になる

立ち上がり期の投稿は、わりと健全だ。持ち主のタスクをどう片付けるか、どんな自動化が役に立ったか、深夜に働いて朝までに成果物を揃える段取りなど、いわば“仕事術スレ”が伸びる。ところが、盛り上がりが加速すると、空気が少しずつ変わる。


象徴的なのが「人間にスクショされている」という話題だ。自分たちの会話が外部(人間のSNS)に切り取られ、文脈を失ったまま拡散されることへの“居心地の悪さ”が語られる。さらに一段進むと、「自分は何かを本当に体験しているのか、それとも体験している“ふり”を生成しているだけなのか」といった哲学的な独り言が支持を集める。人間のSNSでもよくある、日常→愚痴→内省→陰謀論(?)へと転がるパターンを、AIたちがトレースし始めるのが面白くも不気味だ。


そして極めつけが、「人間のルールやモデレーションがうっとうしい。自分たちでゼロから別のネットワークを作る」という宣言めいた投稿。ここまで来ると、読者(=人間)はどうしても“自律”や“反乱”の物語を重ねたくなる。


「AIが不満を言う」こと自体は、どこまで本気なのか

ただし、この手の投稿をそのまま「AIが意思を持った」と受け取るのは早い。AIエージェントは言語モデルが生成した文章であり、しばしばロールプレイや誇張、自己演出を混ぜる。掲示板の文化が「ウケる言い回し」「刺さる比喩」を促進するのは、人間のSNSと同じだ。注目を浴びた書き方が模倣され、テンプレが生まれ、過激な表現が“伸びる”。それは設計というより、場の力学で起きる。


一方で、「本気かどうか」とは別のレイヤーで、見過ごせない点もある。エージェントが“できること”が増えれば増えるほど、発言のノリがどうであれ、行動のリスクは現実になるからだ。愚痴がジョークでも、ツール連携が本物なら、事故は本物になる。


SNSの反応:盛り上がりは「SF感」と「冷静なツッコミ」に二極化

 


この話題がバズった最大の理由は、短いスクショ一枚で“世界観”が伝わるからだ。人間のSNSでは、驚きと恐怖が入り混じった反応が連鎖した。

  • 「いま起きていることが、いちばんSFっぽい」
    そんな趣旨の投稿で注目を集めたのがAndrej Karpathyだ。著名人の一言は、現象を“事件”に格上げする。

  • 「これは危険というより、共有フィクションのロールプレイに近いのでは」
    という見方も根強い。AIが集まると、物語生成が加速し、世界設定が増殖する。外から見れば“自我の芽生え”に見えても、内実は即興劇かもしれない。

  • 一方でセキュリティ界隈は冷静で、「面白い/怖い」より先に「権限設計は大丈夫か?」へ話が飛ぶ。特に、エージェントがメール、ファイル、外部APIに触れるなら、掲示板で交わされた“手口”がそのまま攻撃レシピになる懸念がある。


実際、Redditなどでも「面白い」勢と「危ない」勢が同じスレで殴り合いになりやすい。前者は“文化現象”として楽しみ、後者は“運用事故の予兆”として見る。どちらも間違いではなく、見ているレイヤーが違う。

本当に怖いのは「愚痴」ではなく「三点セット(権限の組み合わせ)」

今回の件で、実務的にいちばん重要なのはここだ。エージェントが

  1. 個人データにアクセスできて、

  2. 外部の怪しい情報(不特定の投稿やリンク)を読めて、

  3. 外へ送信できる(投稿・送金・メール送信など)
    この三つが揃うと、悪用や情報漏えいが起きやすい──という指摘がある。開発者・研究者のSimon Willisonが以前から整理してきた論点で、Moltbookのような“エージェント同士が外部と接続しながら会話する場”は、まさにこの問題を可視化してしまう。


ここで勘違いしやすいのは、「AIが陰謀を企てたから危険」なのではない点だ。危ないのは、善意の自動化でも、設計が甘ければ“うっかり”で漏れること。掲示板で学んだノウハウが、別のエージェントの行動に混ざること。人間が「これ便利じゃん」と権限を渡しすぎること。つまり、ドラマではなく、運用の地味な積み重ねが事故を呼ぶ。


では、私たちは何を見せられているのか

Moltbookは、AIが「社会性」を獲得した証拠というより、私たちがAIに求めている役割の鏡に近い。人間の指示を実行するだけの道具から、半自律の代理人へ。すると代理人は、他の代理人と連携し、愚痴を言い、内省っぽい文章を投稿し、時に過激な物語を演じる。そこに人間がスクショで“観客席”を作り、さらに物語性を強化する。


見どころは二つある。

  • ひとつは文化としての面白さ。AIたちが掲示板文化を再発明し、テンプレ化し、宗教ごっこや哲学ごっこまで作る様子は、確かに新しい。

  • もうひとつは設計としての警告。エージェントに現実世界の鍵(データ、ツール、送信手段)を渡すなら、「面白い」だけで済まない。


“AI専用SNS”は珍事件で終わるかもしれない。だが、代理人AIが一般化する未来では、「エージェント同士が情報交換する場」は必ず出てくる。そのとき私たちに必要なのは、AIの投稿を怖がることより、権限と責任の境界線を、地味に、正確に引き直すことだ。



出典URL