10倍快、10倍便宜的民意调查 ― AI解读政治氛围的时代

10倍快、10倍便宜的民意调查 ― AI解读政治氛围的时代

AI能否倾听“民意”——调查现场的静悄悄革命

“听到‘政治家’这个词时,你首先想到的形象或情感是什么?”

电话那头传来的是一个年轻女性的声音。声音平静、事务性强,谈话节奏自然。然而,这声音的主人并非人类,而是一个AI代理,即程序驱动的倾听者。

当回答者表达对政治家的不信任或讽刺时,后台还有多个AI在运作。一个AI检查回答是否符合问题,另一个AI在内容浅薄时引导深入探讨,还有一个AI试图识别回答者是否为不正当回答者或机器人。这不是未来实验室的故事,而是法国AI民意调查公司Naratis正在进行的现实政治调查场景。

长期以来,民意调查一直是可视化社会声音的重要工具。选举前的支持率、政策的赞成与否、企业产品评价、社会问题的态度。报纸和电视上展示的数字影响了政治家、企业、媒体,甚至选民自身的判断。

然而,这一基础如今正在动摇。接电话的人减少,回答问卷的人也在减少。许多人忽略不认识的号码,不愿意回答冗长的问卷。当愿意回答的人减少时,调查成本增加,偏差也会增大。此时,AI自动化民意调查应运而生。

Naratis的创始人皮埃尔·冯特恩解释说,公司优势在于“不是让人选择复选框,而是与AI对话”。传统的定量调查收集大量的赞成、反对、无所谓等选项,而Naratis瞄准的是更耗时费钱的定性调查领域。通过对少数人的访谈或小组讨论,探寻不仅仅是“在想什么”,而是“为什么这样想”的方法。

这一领域对于政治活动和企业品牌调查非常有价值。例如,听到候选人的口号后,为什么人们会有好感。对某项政策提案反感的人,是不喜欢制度内容,还是不喜欢解释方式。在数字无法捕捉的情感、联想和犹豫中,可能隐藏着真正的线索。

AI有可能大规模提升这种定性调查。人类访谈员逐一进行听取需要时间和人力成本,但AI可以同时进行多次对话。Naratis声称,与人类调查相比,“速度快10倍,成本低10倍,精度达90%”。曾经需要数周和数万欧元的调查,可能在一两天内完成。

这种速度在政治现场具有重大意义。在选举期间,民意可能因一句话、一次失言或一件国际事件而迅速变化。传统调查结果出来时,情况可能已经改变。如果AI能在24小时内收集反应,阵营几乎可以实时读取选民情绪并调整信息。

然而,这里存在第一个危险。更快理解民意意味着可以更快地影响民意。如果AI显示“这种表达可以避免愤怒”,“这种词汇可以动员支持者”,政治家或阵营就能更精确地投放符合选民不满或不安的言辞。对于民主来说,这是对话的进步,还是情感操控的高度化?

围绕AI民意调查的讨论中,重要的是区分两种技术。一种是AI代替对真实人类的采访,另一种是AI创造“合成回答者”或“数字双胞胎”,代替真实人类回答。

前者自动化了调查的倾听者和分析者,回答的仍然是人类。后者则基于过去的数据和属性信息,AI推测“这样的人会这样回答”。这在市场调查中可能用于概念测试或假设构建,但在政治调查中问题会骤然加重。

因为政治中的民意调查不仅仅是商业资料。公布的支持率被报道,影响捐赠和投票行为,塑造候选人的势头。如果AI生成的回答被当作人类收集的民意对待,可能测量的不是“民意”,而是合成的“民意样本”。

对此,现有的调查公司持谨慎态度。市场调查巨头Ipsos利用AI,但在政治敏感调查中使用AI生成的回答者时非常警惕。OpinionWay的CEO布鲁诺·让巴尔明确表示,不会公布基于AI生成数据的民意调查。理由很简单:对于调查行业来说,最大的资产是“信任”。

在社交媒体上,对AI民意调查的反应更多是警惕而非期待。特别是在英语圈的技术社区中,“AI民意调查是假民意调查”这一说法广为流传,Reddit上批评称“不是由真人而是由大型语言模型根据规则生成反应”。另一位用户主张,即使方法论写得很小,很多人也不会阅读,因此必须以无法忽视的方式表明是AI生成回答。

然而,并非所有反应都是全面否定的。在LinkedIn上,有讨论认为AI生成的合成受众应被定位为“预测模型”而非“实际民意调查”。也就是说,如果AI不是代替人类,而是用于假设验证、偏见检测、信息初步测试,那么是有意义的。问题不在于使用AI本身,而在于将模拟结果呈现为实测数据,这一立场认为。

这种反应的差异很好地反映了AI民意调查的本质。作为一种便利的工具,AI拓展了调查的可能性。即使是人类难以回答的主题,面对机器可能更容易说出真心话。即使面对人类倾听者时有人会装模作样或给出社会上更可接受的答案,面对AI可能会更坦率。在法国,极右翼支持在民意调查中往往被低估,如果能捕捉到这些“难以言说的真心话”,AI面试有一定的优势。

此外,AI也适合深入挖掘回答。通常的问卷调查中,往往无法充分挖掘“反对”的理由。然而,借助对话型AI,可以继续询问“为什么这样认为”“这种想法从何时开始改变”“哪些事件给你留下了印象”。分类大量的自由回答,整理情感和论点也是AI的强项。

尽管如此,AI仍有致命弱点。首先,AI有时会制造看似合理的错误,即所谓的幻觉。在调查领域,少许的偏差可能导致重大误解。其次,AI强烈依赖于过去的数据。过去被广泛讨论的意见、互联网上大量残留的言论、英语圈或城市地区的价值观,可能被视为比现实更普遍。

第三,AI容易趋向“平均的合理性”。人类的意见是矛盾的、情感化的,并随情境而变化。可能支持某项政策,但不喜欢提出该政策的政治家。家庭经济的不安与环境意识可能发生冲突。如果AI生成的回答过于整齐,这种人类特有的波动性可能被削减。结果可能产生过于整洁的民意。

实际上,关于合成回答者的研究评论指出,高水平的平均值可能接近人类回答,但在属性差异、变异、相关性、回归系数等细节上会出现问题。在政治现场,重要的正是这些细节。即使整体平均值正确,但如果误解了特定地区的无党派群体、年轻人、移民背景的选民、地方老年人的反应,选举策略和政策判断都会出错。

更严重的是,责任问题。传统的民意调查也有其局限性。调查对象的偏差、问题的引导、拒绝回答、加权方法等,完美的调查并不存在。然而,至少可以通过展示问了谁、何时问的、问了多少人、问题是什么,提供外部验证的空间。

引入AI后,这种验证变得复杂。使用了哪个模型?用什么数据进行学习?如何评估回答的深度?如何识别不正当回答?如果使用了合成回答者,该人物形象基于什么构建?如果这些信息不透明,仅公布数字,那么调查将成为黑箱的权威化。

随着AI民意调查的普及,关于监管的讨论也不可避免。特别是在政治领域,若公布基于AI生成数据的调查,可能需要明确的显示义务或禁止规则。在像法国这样对民意调查监管相对严格的国家,可能会对使用合成数据的政治调查的公布加以限制。

那么,AI能否使民意调查更准确?

答案并不简单。AI在传统调查难以应对的速度、成本、自由回答分析、对话型深入挖掘方面表现出色。对于苦于人类访谈员不足和回答率下降的行业来说,无疑是一个有吸引力的解决方案。如果是询问真实的人类,并由AI辅助和分析对话,那么有可能提高民意调查的质量。

然而,一旦AI开始代替人类“回答”,情况就会改变。这不再是民意的测量,而是民意的推测、模拟和模型的输出。有时会有用,但称之为民意时必须谨慎。

未来的主流可能不是完全自动化,而是混合型。AI提出问题,整理回答,检测异常值,建立假设。人类调查员监督设计,验证结果,承担政治和伦理责任。AI增加了耳朵,但最终决定听到了什么的仍然是人类。这条界限将变得重要。

AI民意调查可能会使民主变得更便利。它可能捕捉到未曾到达的声音,使复杂的情感可视化,并使政策和报道更接近现实。但同时,也存在合成、操控民意并让人误以为了解的危险。

民意调查的本质不是制造数字,而是了解生活在社会中的人们在恐惧什么、愤怒什么、希望什么、困惑在哪里。如果AI能帮助完成这项工作,那将是值得欢迎的进步。然而,如果AI开始代替人类表达民意,那将成为民主过于便利的危险物。

在AI时代的民意调查中,最重要的不是AI有多聪明,而是调查者能多诚实地解释,什么交给AI,什么是从人类那里听到的。AI是拯救失去信任的民意调查,还是让其更令人怀疑,答案取决于技术的使用透明度。


社交媒体反应总结

 

在社交媒体和评论区,对AI民意调查的反应大致分为三类。

首先是强烈的不信任感。在Reddit的技术社区中,关于AI模拟回答者的方式,“如果没有询问真人,那就不是民意调查”的反应尤为显著。特别是,使用AI生成回答的调查仅通过标题或图表传播时,读者可能误解为实测调查的担忧尤为强烈。

其次是“如果限定用途则有用”的现实观点。在LinkedIn上,有意见认为AI生成的合成受众应作为预测模型或假设验证工具,而非民意测量。它可以用于信息初步测试或模型偏见确认,但不能替代真实人类的声音。

第三是对现有民意调查本身的不信任。在社交媒体上,有声音质疑“人类调查也充满偏见”,这表明问题不仅在于AI,而是整个民意调查的信任正在动摇。对AI民意调查的批评同时也反映了对传统调查的不满。


出处URL

BBC“Will AI lead to more accurate opinion polls?”
AI代理进行政治民意调查,Naratis,Ipsos,OpinionWay,对合成数据的担忧等,本文核心信息的出处。请参阅上传的全文。
https://www.bbc.com/news/articles/cwyw6rylzepo

Info Nasional对BBC文章的重构文章
用于确认BBC文章内容。Naratis的主张,回答率下降,OpinionWay的谨慎态度等。
https://world.infonasional.com/ai-agents-political-opinion-polling

Reddit“‘AI polls’ are fake polls”
社交媒体反应的参考。批评AI民意调查“不是人类的真实声音”的反应,显示义务和误认的担忧。
https://www.reddit.com/r/technology/comments/1sjdfvj/ai_polls_are_fake_polls/

Silver Bulletin / Nate Silver“‘AI polls’ are fake polls”
关于应将AI民意调查视为“模型”而非“调查”的讨论,X上的反应作为参考资料。
https://www.natesilver.net/p/ai-polls-are-fake-polls

LinkedIn / Damian Lyons Lowe·Survation相关帖子
确认行业对AI生成数据不是人类替代品,政治和社会调查中准确性和责任重要性的反应。
https://www.linkedin.com/posts/damian-lyons-lowe-33124421_crashed-activity-7453117988657983490-zkrb

Harvard Ash Center“Using AI for Political Polling”
关于AI使政治民意把握实时化的可能性及信息质量担忧的背景资料。
https://ash.harvard.edu/articles/using-ai-for-political-polling/

Market Research Society“合成回答者在市场研究中的风险或回报?”
关于合成回答者的风险、透明性、数据真实性、真实人类数据重要性的参考资料。
https://www.mrs.org.uk/blog/operations/synthetic-respondents-in-market-research-risk-or-reward

Springer AI & Society“人工智能民意调查的民主伦理”
关于AI民意调查的伦理、可解释性、合成回答者和数字痕迹利用的民主论点的参考资料。
https://link.springer.com/article/10.1007/s00146-024-02150-4

MeasuringU“合成用户实验的回顾”
关于合成用户和合成回答者在平均值上可能接近人类,但在属性差异、相关性等细节上出现问题的研究回顾的参考资料。
https://