AIは文章を書きすぎて、社会を壊し始めた

AIは文章を書きすぎて、社会を壊し始めた

AIは“賢すぎる”のではない。“多すぎる”のである

AIをめぐる議論は、しばしば性能の話に偏る。どこまで自然な文章が書けるのか、どこまで人間らしく振る舞えるのか、どこまで仕事を代替できるのか。だが、FlaglerLiveに掲載された論考が突いている核心は少し違う。いま社会を揺さぶっているのは、AIが人間より賢いからではない。人間がさばけない量の文章を、一瞬で、しかも見た目にはもっともらしく生み出せるようになったからだ。

たとえば2023年、SF文学誌クラークズワールドはAI生成作品の殺到を受けて新規投稿の受け付け停止に追い込まれた。元記事でも象徴的な出来事として触れられているが、これは出版の特殊な事件ではない。新聞の投書欄、学術誌、政策へのパブリックコメント、裁判所への提出書面、採用の応募書類、SNS投稿まで、文章が入口になっている制度のあちこちで同じことが起き始めている。かつては「書くのが大変」「考えるのが大変」であること自体が流量制限になっていた。しかし生成AIは、その自然な制限を一気に消してしまった。

この変化が厄介なのは、文章の質が高いからではなく、量が制度を壊すからだ。編集者や査読者や教員や裁判官は、誤りのない完璧な判断機械ではない。限られた時間で大量の文章を読んで、選び、見分け、処理する人間である。そこへAIが加わることで、制度は「質の競争」ではなく「処理能力の限界」と戦うことになる。言い換えれば、問題はAIの知能ではなく、人間側の帯域幅にある。

その象徴が行政の意見募集だ。2026年には、南カリフォルニアの大気規制をめぐる議論で、2万件を超える反対コメントがAI支援のプラットフォーム経由で送られていたことが報じられた。関係者への照会では、自分が送った覚えのないコメントが提出されていたという例も確認されている。もちろん、AIが市民の意見表明を手助けすること自体は一概に悪ではない。文章が得意ではない人、時間がない人、英語や専門用語に不安がある人にとって、AIは政治参加の補助線になり得る。だが同じ技術は、企業やロビイストが“草の根の声”を大量生産して見せる道具にもなる。ここで問われているのは効率ではなく、代表性と真正性だ。

裁判の世界でも、同じ構図はより深刻な形で現れている。全米州裁判所センターは2026年、AI生成の証拠や引用が司法への信頼を脅かしていると警告した。特に本人訴訟では、存在しない判例や条文、AIで加工された画像・動画・文章が持ち込まれる事例が増えており、アメリカでは自己代理の当事者による虚偽引用が350件超記録されているという。しかも問題は、偽物が混じることだけではない。本物ですら「AIではないか」と疑われる時代になると、証拠そのものへの信頼が痩せていく。制度の土台は正しさだけでなく、正しさを信じられる感覚によって支えられているからだ。

では、AI検出ツールを強化すれば解決するのか。元記事が「勝ち目のない軍拡競争」と呼ぶのはまさにここだ。生成側が巧妙になれば、検出側も高度化する。だが検出器は現実世界で安定して機能するとは限らない。スタンフォードHAIは、AI検出器が非ネイティブ英語話者の文章を高率で誤判定すると報告している。2026年の研究でも、検出器はベンチマーク上では高精度に見えても、文体や生成モデルやデータ分布が変わると性能が大きく崩れることが示されている。つまり検出は必要でも、それだけに依存すると、今度は無実の人間を傷つける。

SNS上の反応も興味深い。公開投稿を見ていくと、反応は大きく三つに分かれていた。第一に、「恩恵と害をどう釣り合わせるか」という実務的な受け止めだ。Harvard Ash Centerや複数のLinkedIn投稿では、AIは民主主義への参加や表現支援に役立ち得る一方、偏りや誤りや大量投下が制度を傷めると整理されていた。第二に、「問題は検出ではなく信頼の設計だ」という反応だ。人間の判断、経験、文脈を重視しなければ、制度は“本物らしさ”だけで回るようになるという懸念が目立つ。第三に、教育や学術出版の現場からの危機感である。誤検知による不信、AIで書かれた査読、幻覚引用の混入など、現場にいる人ほど“すでに始まっている問題”として語っていた。

ここで重要なのは、「AIを禁止すれば元に戻る」とは考えにくいことだ。元記事も、能力の高いAIはすでに広く行き渡っており、ノートPC上でも動く時代だと指摘している。つまり社会が考えるべきなのは、AIの存在そのものをなかったことにする方法ではない。どこまでを支援として認め、どこからを偽装として線引きするのか。大量投稿にどう摩擦を設けるのか。人間の審査をどこに残し、どこをAI補助に委ねるのか。その制度設計である。

むしろ、AIには確かな光の側面もある。元記事が強調するように、これまで文章作成や応募書類の磨き込み、学術英語の整文を人間のアシスタントに頼めたのは、時間や資金を持つ人たちだった。AIはその補助を広く解放する。だから本当に守るべきなのは、「人間が一字一句すべて自力で書いたか」という古い純血主義ではないのかもしれない。守るべきなのは、本人の意思、経験、責任、そして制度が受け取るべき“ひとつの声”が、量産された偽の群衆に押し流されないことだ。

結局のところ、AI時代の争点は文章の真贋判定だけではない。何が本物の意見なのか、誰が責任を負うのか、どこまでが支援でどこからが詐術なのか。生成AIは、そうした問いを社会の前に容赦なく突きつけている。問題はAIが人間そっくりの文章を書けることではない。人間の制度が、もはや“書くことが簡単すぎる世界”を前提に設計されていないことなのである。


出典URL

FlaglerLive
https://flaglerlive.com/overwhelming-ai/

本文内容の確認に使った再掲載版。Bruce Schneier氏・Nathan Sanders氏による元論考の主要主張を確認
https://techxplore.com/news/2026-02-ai-generated-text-overwhelming-arms.html

同テーマの別掲載先。記事全体の要旨確認に使用
https://www.washingtonpost.com/ripple/2026/02/05/ai-generated-text-is-overwhelming-institutions-setting-off-a-no-win-arms-race-with-ai-detectors/

クラークズワールドがAI生成作品の殺到で投稿停止に至った件の報道
https://www.theguardian.com/technology/2023/feb/21/sci-fi-publisher-clarkesworld-halts-pitches-amid-deluge-of-ai-generated-stories

AI検出器が非ネイティブ英語話者に不利だとするスタンフォードHAIの解説
https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers

AI文章検出の一般化性能が崩れやすいことを示す2026年の研究
https://arxiv.org/abs/2603.23146

カリフォルニアの大気規制をめぐり、2万件超のAI支援コメントが意思決定に影響したとする報道
https://www.govtech.com/artificial-intelligence/ai-generated-comments-swayed-california-air-decision

裁判所におけるAI生成証拠・虚偽引用と司法信頼の問題を扱う全米州裁判所センターの記事
https://www.ncsc.org/resources-courts/ai-generated-evidence-threat-public-trust-courts

SNS上の反応その1。民主主義への影響という観点で紹介したHarvard Ash Centerの公開投稿
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL

SNS上の反応その2。AIの恩恵と害のバランスを問う公開投稿
https://www.linkedin.com/posts/dr-david-ngatia_ai-generated-text-is-overwhelming-institutions-activity-7425403059226263552-brcN

SNS上の反応その3。“data tsunami”とガバナンスの必要性を論じた公開投稿
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

SNS上の反応その4。教育現場での誤判定と信頼低下を論じた公開投稿
https://www.linkedin.com/posts/william-garrity-b87456112_ai-generated-text-is-overwhelming-institutions-activity-7429204916256038912-abEL

SNS上の反応その5。検出偏重ではなく人間の判断と真正性を重視すべきだとする公開投稿
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

SNS上の反応その6。学術査読や引用の信頼性低下に怒りを示した学術界の公開投稿
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL