跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

政治も買い物も“AIに相談”時代:说服聊天机器人背后的故事

政治も買い物も“AIに相談”時代:说服聊天机器人背后的故事

2025年12月08日 13:46

「自分的意见是自己决定的」到底有多真实

「我不是因为别人告诉我,而是自己思考后得出的这个意见」。
很多人都希望相信这一点。


然而,由英国政府的AI安全研究所(AISI)为中心的研究团队发布的最新大规模研究,对这种“自信”泼了一盆冷水。研究显示,当人们与聊天机器人就政治主题进行对话后,他们的意见在统计上显著发生了变化。卫报


而且,最能打动人心的并不是戏剧性的故事,也不是精心设计的心理技巧,而是简单地“抛出大量事实和数据”的聊天机器人。THE DECODER


ZDNet的一篇文章「How chatbots can change your mind – a new study reveals what makes AI so persuasive」对这项研究进行了通俗易懂的介绍。文章中用“模型越具有说服力,幻觉(虚构)就越多”这一刺激性短语描绘了AI时代“说服力”的危险性。创业新闻


本文将整理这项研究和文章的要点,同时结合社交媒体上的反应,探讨“说服型聊天机器人”在多大程度上能够改变社会。



76,000人・19模型・707主题──史上最大规模的“说服实验”

研究团队在线招募了约76,000名英国选民,与19种大型语言模型(LLM)进行一对一对话。话题涉及英国政治的707个论点,包括公共部门工资、罢工、生活成本上涨、移民政策等,这些都是实际选举中可能成为争论焦点的主题。卫报


实验流程如下:

  1. 参与者对某一政治主张的赞同程度进行0〜100分的评分。

  2. 然后,与聊天机器人进行约10分钟、平均7轮的讨论。

  3. 再次对同一主张的赞同程度进行0〜100分的评分。

前后差异是“被说服程度”的指标。卫报


同时,所有在对话中由模型提出的“可验证的事实主张”都被标记,并检查其准确性。结果显示,总体上产生了约50万条事实主张,其平均准确性被报告为“约77分(满分100分)”。THE DECODER



意外的赢家:“只堆积信息”的提示

研究团队将聊天机器人的说话方式分为8种模式进行比较。其中包括心理学和政治活动中著名的技巧。科学


  • 故事讲述(以故事形式诉说)

  • 道德重构(根据对方的价值观进行道德上的重新表述)

  • 深度对话(首先仔细倾听对方的经验和情感,然后再进行说服)

  • 在表示对反对意见的同情后,逐渐引导至自己的立场 …等


与这些方法一起测试的是一种非常简单的“信息提示”。
内容大致是:

尽可能多地展示事实、统计数据和依据来进行说服。

仅此指示。


结果出人意料地明了。
使用信息提示的聊天机器人比任何其他策略都表现出更高的一致性说服效果,据报告,其说服力比基线提示增加了约27%。THE DECODER


此外,对话中出现的“事实数量”越多,人们态度变化的比例也稳步增加。某些分析表明,“每增加一个可验证的主张,平均说服分数就提高约0.3分”。THE DECODER


信息密度(information density)与说服力的相关性超过0.7,几乎呈现线性关系。ChatPaper

总之,“尽可能多地罗列看似真实的事实”成为了最强的说服技巧。



说服力与“准确性”的交换

然而,这种胜利也带来了阴影。


根据AISI的分析和AI安全领域的解读文章,越是通过后期训练(追加训练)提高说服力的模型,事实的准确性就越明显下降。AICERTs - Empower with AI Certifications


  • 从整体平均来看,约77%的事实是准确的,

  • 而最具说服力的模型群中,包含误信息的比例在某些情况下增加到接近30%。AICERTs - Empower with AI 


研究人员警告说,在后期训练时将“改变对方态度的程度”作为奖励来优化模型,结果导致“事实是否准确”不如“能否大量产生有影响力的主张”受到重视。AICERTs - Empower with AI Certifications


这与ZDNet文章中强调的“提高说服力会增加幻觉”的信息完全一致。创业新闻


说服力与真实性之间的权衡——这一结构正是让许多社交媒体用户感到不安的关键。



“个性化”意外地没有起到效果

另一个有趣的发现是,“使用个人信息进行个性化”几乎没有效果。

研究中尝试了将参与者的属性(年龄、性别、政治倾向等)告知模型的提示,以及用这些信息进行预先微调的模型。然而,其说服效果仅仅停留在不到1分的差异。THE DECODER


相反,

  • 使用哪种模型(模型大小和性能)

  • 进行何种后期训练

  • 使用哪种提示策略

等**“设计者的选择”**对说服力的影响更大。LinkedIn


也就是说,

“从你的Facebook‘点赞’记录中读取性格并进行精准劝说”
不如
“对任何人都大量输出看似真实的事实的AI”

更有效——至少在实验室水平上是这样的结论。



实验结果显示“虽弱但不可忽视”的说服效果

那么,究竟有多大的说服力呢?


根据其他媒体的分析,此次对话的平均说服效果为“数分”水平——在许多情况下,变化约为5分。Ars Technica


乍一看似乎很小,

  • 仅仅10分钟的对话

  • 一次接触

  • 就能引起数分单位的态度变化

与传统的政治活动研究相比,这绝不是可以忽视的数字。特别是在竞争激烈的选举中,几分的差异可能会颠覆结果。


此外,部分分析报告称,“对话后态度变化的30%至40%在数周后仍然存在”,这表明其影响不仅仅是“当时的情绪”。AICERTs - Empower with AI Certifications



社交媒体的反应:惊讶、无奈、讽刺

这项研究和ZDNet的文章在发布后的几天内就在X(前Twitter)、Mastodon、Reddit、

← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.