人間より人間らしい宣伝工作:AIボットは「世論」まで偽装するのか ― SNSで始まった静かな民主主義の侵食

人間より人間らしい宣伝工作:AIボットは「世論」まで偽装するのか ― SNSで始まった静かな民主主義の侵食

かつてSNSの脅威といえば、同じ文面を大量投下する単純なボットや、露骨な偽アカウント群を思い浮かべる人が多かった。だが、いま研究者たちが警戒しているのは、もっと静かで、もっと人間らしく、もっと見抜きにくい存在だ。生成AIを組み込んだ新世代のボット群は、ひとつの命令で同じ文をばらまくのではなく、それぞれが別人格のように振る舞い、相手の関心や会話の流れに合わせて言葉を変えながら、少しずつ空気を作り変えていく。問題は、偽情報そのもの以上に、「みんながそう思っている」という雰囲気まで人工的につくれてしまうことにある。


この危険は空想ではない。インディアナ大学のFilippo Menczerらは2023年半ば、X(当時Twitter)上で暗号資産詐欺を拡散していた1000超のボットネット「fox8」を確認した。特徴的だったのは、投稿があまりにも人間らしかったことだ。運用が雑な場面では「As an AI language model…」のような自己暴露文が混ざって正体が見えたが、研究者側はむしろ、それが“氷山の一角”だと見ている。もっと丁寧に運用されれば、表面上は普通の利用者と区別がつきにくくなるからだ。しかもこのボット群は相互に会話し、人間の投稿にも自然に絡み、推薦アルゴリズムに乗る形で露出と影響力を広げていた。


ここで見逃せないのは、AIボットの進化が「嘘をもっと巧妙に言う」段階を超えて、「世論の形そのものを偽装する」段階に入りつつあることだ。2026年1月にScienceで警告された「malicious AI swarms」は、単体ではなく群れとして連携する。研究チームは、こうしたスウォームがコミュニティに潜入し、会話の文体やスラングを学び、反応の良いメッセージを高速で試しながら、最も効く言説だけを増幅できると指摘した。要するに、無数のAIが一斉に“空気を読む”側に回るのである。しかも24時間止まらない。


このとき最も重要なキーワードが、「synthetic consensus」、すなわち人工的に作られた合意だ。人は、ある意見が正しいかどうかを中身だけで判断しているわけではない。まわりに同じ意見が多いと感じれば、それだけで信じやすくなる。研究者たちはこれを社会的証明の悪用だと説明する。もし地域の掲示板でも、育児コミュニティでも、スポーツファンの集まりでも、あるいは選挙の支持者グループでも、自然な共感や雑談を装ったAIが何百、何千と紛れ込めば、人間は「これは少数の過激な主張ではなく、もう一般的な感覚なのだ」と錯覚しやすい。民主主義を支える“世論”は、本来ばらばらの個人の声がぶつかり合って形になるはずだが、その前提が崩れてしまう。


しかも、この手法の厄介さは、単純なファクトチェックでは防ぎにくい点にある。ひとつひとつの投稿だけ見れば、露骨なデマではないかもしれない。感想、皮肉、相づち、質問、体験談、やや誇張された不安――そうした“完全な虚偽ではない小粒の言説”が大量に重なったとき、全体としてひとつの物語ができあがる。否定情報が出ても、独立した複数の人間が同じ方向を向いているように見えれば、印象は簡単には消えない。ボット群が狙うのは、真実より先に、体感としての多数派を確保することなのだ。


研究者らは、この技術が2028年の米大統領選までに大規模運用されても不思議ではないと警告している。Guardianの報道では、ノーベル平和賞受賞者マリア・レッサを含む研究者・実務家グループが、AIスウォームは選挙結果の否認や選挙中止の受容すら後押ししうると懸念を表明した。すでに2024年の台湾、インドネシア、インドの選挙では、AIを使った影響工作の初期例が見られたとも紹介されている。つまり、これは「将来の話」ではなく、「いま試され始めている手法」なのだ。


 

一方で、SNS上の反応は一枚岩ではない。公開投稿を追うと、まず目立つのは「やはり来たか」という危機感だ。Xでは、AIボット群がスケールした偽の合意を作り、民主主義や自由な議論を侵食するという見方が共有され、LinkedInでも研究者や関係者が“clarion call(警鐘)”として拡散している。特に学術・政策系の反応では、「偽情報より深刻なのは、独立した多数の声が存在するように見せかけることだ」という整理が強い。


ただし、一般ユーザーの反応には別のニュアンスもある。Redditでは「そんなものは何年も前から起きていた」「ロシア系の宣伝ボットなど旧来型の工作が、AIでさらに洗練されただけだ」という“今さら感”が少なくない。ここでは、AIそのものへの恐怖より、プラットフォームが長年放置してきた問題への不信が前面に出る。つまり、脅威の本体は新しい技術ではなく、偽アカウントや煽動的な投稿ほど拡散しやすい設計にある、という見立てだ。


さらに強いのは、「解決策としての本人確認や厳しい監視は、別の危険を招く」という反応である。Reddit上には、強固な認証はあまりに侵襲的で、匿名性の喪失や個人情報流出につながるのではないかという懸念が見られる。これは単なる技術論ではない。民主主義を守るための対策が、逆に監視強化や発言萎縮を生むのではないかという疑いだ。AIボット対策が正しい方向へ向かわなければ、「ボットから社会を守る」つもりが、「人間の発言しにくさ」を増やす可能性がある。


この対立は、実はとても本質的だ。AIスウォームの問題を単なるテックリスクとして扱うと、対策はすぐに「検出を強化する」「認証を厳しくする」「怪しい発言を抑える」に傾く。だがそれだけでは不十分だし、危うい。研究者たちも、単一の万能策はないと認めている。必要なのは、個々の投稿を見張るだけではなく、協調行動のパターンを検知すること、研究者にプラットフォームデータへのアクセスを認めること、AI生成コンテンツのラベル付けや来歴表示を進めること、そして何より、偽のエンゲージメントで金が回る構造を断つことだという。攻撃者が儲かる限り、ボットは減らない。


結局のところ、この問題は「AIが危ない」という一言では片づかない。もっと厄介なのは、私たちが日々“世論”と呼んでいるものの多くが、画面越しの印象に依存していることだ。タイムラインで何度も見る意見、複数のアカウントが支持しているように見える主張、コメント欄の空気、トレンド入りした話題。それらは本来、人間の集合的な関心の結果だと信じられてきた。だが、もしそこに大量のAI人格が混ざり込めるのなら、私たちは「他人の考え」を見ているのではなく、最適化された演出を見せられているのかもしれない。民主主義の危機とは、投票箱が奪われる瞬間ではなく、投票前に人びとの“感じ方”が静かに書き換えられていく過程にこそ宿る。いま起きているのは、その入口である。


出典URL

FlaglerLive
https://flaglerlive.com/ai-bots/

本文内容の主要確認に使用
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

AIスウォームが民主主義を脅かすというScience掲載論文の要旨確認に使用
https://arxiv.org/abs/2506.06299

研究機関による要約。AIスウォームの特徴、潜入、最適化、恒常性の整理に使用
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

研究機関による要約。synthetic consensus、検知や政策対応の方向性確認に使用
https://www.cs.ubc.ca/news/2026/01/ai-swarms

2028年米大統領選への懸念、2024年選挙での初期例、専門家コメントの確認に使用
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

2023年に確認された「fox8」ボットネットの研究論文。1000超のAIボットネット事例確認に使用
https://arxiv.org/pdf/2307.16336

fox8ボットネットの報道。ChatGPT由来の自己暴露文やX上での詐欺拡散事例の補足確認に使用
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

X上の反応例。AIボット群が民主主義や自由な議論を脅かすという受け止めの確認に使用
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

LinkedIn上の反応例。研究者・実務家コミュニティでの警鐘共有の確認に使用
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Reddit上の反応例。「前からあった問題」「アルゴリズムの方が本質」「認証強化は危険」といった反応傾向の確認に使用
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/