AI写了太多文章,开始破坏社会。

AI写了太多文章,开始破坏社会。

AI并不是“太聪明”,而是“太多”

围绕AI的讨论往往偏向于性能方面。它能写出多自然的文章,能表现得多像人类,能替代多少工作。然而,FlaglerLive上发表的评论文章指出的核心问题有所不同。当前动摇社会的原因并不是AI比人类更聪明,而是因为AI能够在瞬间生成大量人类无法处理的文章,而且看起来还很合理。

例如在2023年,科幻文学杂志《克拉克世界》因AI生成作品的涌入而被迫停止接受新投稿。虽然在原文中也被提及为象征性事件,但这并不是出版界的特例。从报纸的读者来信栏、学术期刊、政策的公众评论、法庭的提交文件、招聘申请到社交媒体的帖子,文字作为入口的制度中,类似的情况正在各处发生。过去,“写作困难”和“思考困难”本身就是流量限制。然而,生成AI一下子消除了这种自然的限制。

这种变化之所以棘手,并不是因为文章质量高,而是因为数量破坏了制度。编辑、审稿人、教师和法官并不是无误的完美判断机器。他们是在有限的时间内阅读、选择、区分和处理大量文章的人类。AI的加入使得制度不再是“质量的竞争”,而是与“处理能力的极限”作斗争。换句话说,问题不在于AI的智能,而在于人类的带宽。

其象征就是行政的意见征集。2026年,据报道,在关于南加州空气监管的讨论中,通过AI支持平台发送了超过2万条反对意见。在向相关人员查询时,甚至确认了提交了自己不记得发送的评论的例子。当然,AI帮助市民表达意见本身并不一定是坏事。对于不擅长写作、没有时间、对英语或专业术语感到不安的人来说,AI可以成为政治参与的辅助线。然而,同样的技术也可能成为企业或游说者大量制造“草根声音”的工具。在这里,问题不在于效率,而在于代表性和真实性。

在司法领域,同样的结构以更严重的形式出现。全美州法院中心在2026年警告称,AI生成的证据和引用正在威胁司法信任。特别是在自我诉讼中,越来越多的案例涉及不存在的判例或条文,以及通过AI加工的图像、视频和文章。据称在美国,已经记录了超过350起由自我代理的当事人进行的虚假引用案例。而且问题不仅仅是混入了假货。在即使是真品也被怀疑“是否为AI”的时代,证据本身的信任正在削弱。制度的基础不仅在于正确性,还在于对正确性的信任感。

那么,是否通过加强AI检测工具就能解决问题呢?原文称之为“无胜算的军备竞赛”正是指这一点。如果生成方变得更巧妙,检测方也会变得更高级。但检测器在现实世界中未必能稳定地发挥作用。斯坦福HAI报告称,AI检测器对非母语英语使用者的文章误判率很高。2026年的研究也表明,即使检测器在基准测试上表现出高精度,但当文体、生成模型或数据分布发生变化时,其性能会大幅下降。也就是说,虽然检测是必要的,但如果仅依赖于此,反而会伤害无辜的人。

社交媒体上的反应也很有趣。查看公开帖子,反应大致分为三类。首先是“如何平衡好处和危害”的实务性看法。哈佛Ash中心和多个LinkedIn帖子整理称,AI可能有助于民主参与和表达支持,但偏见、错误和大量投放会损害制度。其次是“问题不在于检测,而在于信任的设计”的反应。强调人类的判断、经验和语境的重要性,否则制度将仅依赖于“看似真实”的担忧尤为突出。第三是来自教育和学术出版领域的危机感。误检导致的不信任、AI撰写的审稿、幻觉引用的混入等,身处现场的人更将其视为“已经开始的问题”。

在这里重要的是,很难认为“禁止AI就能恢复原状”。原文也指出,能力强大的AI已经广泛普及,甚至可以在笔记本电脑上运行。因此,社会应该考虑的不是如何将AI的存在本身抹去。而是在哪些方面承认其为支持,在哪些方面划定为伪装。如何为大量投稿设置摩擦。在哪些地方保留人工审查,哪些地方委托给AI辅助。这就是制度设计。

相反,AI也有其光明的一面。正如原文强调的那样,过去能够依赖人类助手进行文章撰写、申请文件的打磨、学术英语的整文的人,往往是那些拥有时间和资金的人。AI广泛开放了这种辅助。因此,真正需要保护的可能不是“人类是否逐字逐句独立写作”的旧式纯血主义。需要保护的是,个人的意志、经验、责任,以及制度应接收的“一个声音”,不被大量生产的虚假群众所淹没。

归根结底,AI时代的争论点不仅仅是文章的真伪判定。什么是真正的意见,谁来承担责任,哪里是支持,哪里是欺诈。生成AI无情地将这些问题摆在社会面前。问题不在于AI能写出多像人类的文章,而在于人类的制度不再是为“写作过于简单的世界”而设计的。


出处URL

FlaglerLive
https://flaglerlive.com/overwhelming-ai/

用于确认本文内容的再发布版。确认Bruce Schneier和Nathan Sanders的原始论点
https://techxplore.com/news/2026-02-ai-generated-text-overwhelming-arms.html

同主题的其他发布地点。用于确认文章整体要旨
https://www.washingtonpost.com/ripple/2026/02/05/ai-generated-text-is-overwhelming-institutions-setting-off-a-no-win-arms-race-with-ai-detectors/

关于克拉克世界因AI生成作品的涌入而停止投稿的报道
https://www.theguardian.com/technology/2023/feb/21/sci-fi-publisher-clarkesworld-halts-pitches-amid-deluge-of-ai-generated-stories

斯坦福HAI关于AI检测器对非母语英语使用者不利的解释
https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers

显示AI文章检测的泛化性能容易崩溃的2026年研究
https://arxiv.org/abs/2603.23146

关于加州空气监管,超过2万条AI支持评论影响决策的报道
https://www.govtech.com/artificial-intelligence/ai-generated-comments-swayed-california-air-decision

全美州法院中心文章,涉及法院中的AI生成证据、虚假引用和司法信任问题
https://www.ncsc.org/resources-courts/ai-generated-evidence-threat-public-trust-courts

社交媒体反应之一。介绍哈佛Ash中心关于民主影响的公开帖子
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL

社交媒体反应之二。质疑AI的益处与害处平衡的公开帖子
https://www.linkedin.com/posts/dr-david-ngatia_ai-generated-text-is-overwhelming-institutions-activity-7425403059226263552-brcN

社交媒体反应之三。讨论“数据海啸”和治理必要性的公开帖子
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

社交媒体反应之四。讨论教育领域误判和信任下降的公开帖子
https://www.linkedin.com/posts/william-garrity-b87456112_ai-generated-text-is-overwhelming-institutions-activity-7429204916256038912-abEL

社交媒体反应之五。主张应重视人类判断和真实性而非检测偏重的公开帖子
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

社交媒体反应之六。学术界对学术审稿和引用信任度下降表示愤怒的公开帖子
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL