比人类更像人类的宣传工作:AI机器人是否会伪装成“舆论”——社交媒体上悄然开始的民主侵蚀

比人类更像人类的宣传工作:AI机器人是否会伪装成“舆论”——社交媒体上悄然开始的民主侵蚀

曾几何时,提到社交媒体的威胁,许多人会想到大量发布相同内容的简单机器人或明显的假账号群。然而,如今研究人员警惕的是一种更为安静、更具人性化且更难以识别的存在。嵌入生成式AI的新一代机器人群不再是通过一个命令散布相同的文字,而是各自表现得如同不同的人格,随着对方的兴趣和对话的流动而改变言辞,逐渐改变氛围。问题在于,这种技术不仅可以制造虚假信息,还能人工制造出“大家都这么认为”的氛围。


这种危险并非空想。印第安纳大学的Filippo Menczer等人在2023年中期确认了一个名为“fox8”的超过1000个机器人网络,它在X(当时的Twitter)上散布加密资产诈骗。其特点是发布内容极具人性化。在操作粗糙的情况下,像“As an AI language model…”这样的自我暴露语句会混入其中,显露其真实身份,但研究人员认为这只是“冰山一角”。如果操作更加细致,表面上将难以与普通用户区分开来。而且,这些机器人群相互对话,自然地参与人类的帖子,通过推荐算法扩大曝光和影响力。


不可忽视的是,AI机器人的进化已超越“更巧妙地撒谎”的阶段,正进入“伪装舆论形态”的阶段。2026年1月在《Science》上警告的“恶意AI群体”并非单独行动,而是以群体形式协作。研究团队指出,这些群体可以潜入社区,学习对话的文体和俚语,快速试验反应良好的信息,并放大最有效的言论。换句话说,无数AI同时转向“读懂空气”的一方。而且,这一过程是24小时不间断的。


在此,最重要的关键词是“合成共识”,即人工制造的共识。人们判断某一观点是否正确,并不仅仅依赖于其内容。如果感觉周围有很多人持有相同观点,就更容易相信。研究人员将此解释为对社会证明的滥用。如果在地区公告板、育儿社区、体育迷聚会,甚至选举支持者群体中,有数百、数千个伪装成自然共感或闲聊的AI混入,人们容易误以为“这不是少数激进的主张,而是已经成为普遍的感受”。本应由个体声音碰撞形成的“舆论”前提被打破。


而且,这种手法的棘手之处在于,简单的事实核查难以防范。单看每一个帖子,可能并不是明显的谣言。感想、讽刺、附和、提问、经历分享、略微夸大的不安——这些“并非完全虚假的小粒言论”大量叠加时,整体上形成一个故事。即使出现否定信息,如果看起来有多个独立的人朝同一方向,印象也不会轻易消失。机器人群的目标是,在真相之前,先确保体感上的多数派。


研究人员警告说,这项技术在2028年美国总统选举之前大规模运用也不足为奇。《卫报》的报道中,包括诺贝尔和平奖得主玛丽亚·雷萨在内的研究人员和从业者小组表示担忧,AI群体甚至可能推动否认选举结果或接受选举中止。据介绍,2024年台湾、印度尼西亚、印度的选举中,已经出现了使用AI进行影响工作的初期例子。也就是说,这不是“未来的故事”,而是“现在开始被尝试的方法”。


 

另一方面,社交媒体上的反应并不一致。追踪公开帖子,首先显眼的是“果然来了”的危机感。在X上,AI机器人群制造的虚假共识侵蚀民主和自由讨论的观点被分享,在LinkedIn上,研究人员和相关人士也将其作为“警钟”进行传播。特别是在学术和政策领域的反应中,“比虚假信息更严重的是,伪装成独立的多数声音”这一观点更为强烈。


然而,普通用户的反应则有不同的色彩。在Reddit上,不少人表示“这种情况已经发生多年了”,“俄罗斯的宣传机器人等旧式操作只是通过AI变得更加精致”。在这里,与其说是对AI本身的恐惧,不如说是对平台长期以来放任不管问题的不信任。也就是说,威胁的本质并不是新技术,而是设计上更容易传播假账号或煽动性帖子。


更强烈的反应是,“作为解决方案的身份验证和严格监控会引发其他危险”。在Reddit上,有人担心强有力的认证过于侵入性,可能导致匿名性的丧失和个人信息泄露。这不仅仅是技术问题。为了保护民主的对策,反而可能导致监控加强和言论萎缩的疑虑。如果AI机器人对策不朝正确方向发展,“保护社会免受机器人侵害”的意图可能会增加“人类发言的困难”。


这一对立实际上非常本质。将AI群体的问题仅仅视为技术风险,措施很快就会倾向于“加强检测”、“严格认证”、“抑制可疑言论”。但这不仅不够,还很危险。研究人员也承认,没有单一的万能策略。需要的是,不仅仅监视个别帖子,还要检测协作行为模式,允许研究人员访问平台数据,推进AI生成内容的标签化和来历显示,最重要的是,切断通过虚假参与赚钱的结构。只要攻击者能赚钱,机器人就不会减少。


归根结底,这个问题不能简单地用“AI很危险”来概括。更棘手的是,我们每天所谓的“舆论”很多依赖于屏幕上的印象。时间线中多次出现的意见,看似有多个账号支持的主张,评论区的氛围,进入趋势的话题。这些本来被认为是人类集体关注的结果。然而,如果其中混入大量AI人格,我们看到的可能不是“他人的想法”,而是经过优化的演出。民主危机并非在投票箱被夺走的瞬间,而是在投票前人们的“感觉”被悄然改写的过程中。现在发生的正是这个入口。


出处URL

FlaglerLive
https://flaglerlive.com/ai-bots/

本文内容的主要确认使用
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

AI群体威胁民主的Science刊文要旨确认使用
https://arxiv.org/abs/2506.06299

研究机构的摘要。AI群体的特点、潜入、优化、恒常性整理使用
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

研究机构的摘要。合成共识、检测和政策应对方向性确认使用
https://www.cs.ubc.ca/news/2026/01/ai-swarms

2028年美国总统选举的担忧,2024年选举中的初期例子,专家评论的确认使用
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

2023年确认的“fox8”机器人网络的研究论文。1000多个AI机器人网络事例确认使用
https://arxiv.org/pdf/2307.16336

fox8机器人网络的报道。ChatGPT来源的自我暴露文和X上的诈骗扩散事例的补充确认使用
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

X上的反应例。AI机器人群威胁民主和自由讨论的接受度确认使用
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

LinkedIn上的反应例。研究人员和从业者社区的警钟共享确认使用
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Reddit上的反应例。“早已存在的问题”、“算法才是本质”、“认证强化是危险”的反应倾向确认使用
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/