跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

为什么会有人爱AI,有人恨AI:脑科学和社交媒体揭示的分裂 - 透明性、选择权和问责制的设计理论

为什么会有人爱AI,有人恨AI:脑科学和社交媒体揭示的分裂 - 透明性、选择权和问责制的设计理论

2025年11月05日 00:53

1. 昨天读的一篇文章,今天将我的困惑语言化了

2025年11月3日(当地时间)在Phys.org上重新发布的文章,解读了为什么有人“喜欢”AI,而有人“讨厌”AI,这与大脑对风险和信任的感知有关。论点简单但尖锐——人们信任他们能理解的东西。相反,看不见输入和输出之间路径的“黑箱”会成为不安的温床。文章整理了心理学的论点,从人们对算法失败的严厉(所谓的“算法厌恶”)、对AI赋予人类意图的倾向(拟人化),到恐怖谷的不适感。总之,这不仅仅是“AI的问题”,而往往是“人类心理的问题”。 phys.org


2. “期望违背”为什么会痛——算法厌恶的根源

人们对人类的错误宽容,但对机器的错误却很苛刻。从期望违背理论来看,这是理所当然的,因为我们往往对机器有“逻辑、公正、几乎不出错”的隐性期望。一旦偏离,我们就会觉得“那还不如人类可以反问”。算法厌恶(algorithm aversion)是对这种心理的概念化解释,说明即便是同样的错误,机器更容易失去信任。百科全书式的整理也确认了这一点,与现场的体感奇妙地一致。 维基百科


3. 我们在“无心”之物中投射“心”

文章强调的是,仅靠理性无法让人安心的事实。声调、表情、视线和间距——人们通过这些语言之外的情感线索来建立信任。然而,AI在这方面很弱。没有愤怒、不疲倦、不犹豫,有时被视为“冷漠”。这种相似而不同的存在带来的不适,即恐怖谷,也在背景中。这样的“情感空白”助长了对AI的不安感。 phys.org


4. 身份威胁——“工作被夺走”之外的痛苦

根据职业的不同,“被取代”的感觉会引发超出单纯效率化的反感。教师、作家、律师、设计师——当“等价物”出现于他们花时间磨练的技能时,个人形象会动摇。这是社会心理学所说的身份威胁。在这里,合理的技术评估与存在论的不安交织在一起。文章暗示,反感不仅仅是保守性,也是心理防卫。 phys.org


5. SNS在放大什么——欢迎与反感的“真心”可视化

那么,SNS上的氛围如何呢?观察X、Reddit、新闻评论区,可以看到评价效率和创造性的“欢迎派”与强调就业、偏见、治理不信任的“担忧派”并存,关注点各不相同。


  • 欢迎派的典型:
    “研究和文案的初速快得惊人”“作为‘伙伴’的AI缓解了孤独”的使用感分享。许多人也评价将其用于制作和开发的“练习”,最终判断由人来做的界限。

  • 担忧派的典型:
    “AI的失败无法解释,令人害怕”“错误信息和版权界限模糊”“无法信任企业和监管机构”。尤其是在Reddit上,“无法依赖科技公司和监管”的普遍不信任时常显露。 Reddit

进一步的报道基础的舆论也支持了**“期待与不安的对峙”**。在美国,2025年秋季关于AI的担忧比2022年增加的报道不断。工作风险和“多余的自动化”引起的厌恶,对AI摘要的怀疑——“便利”和“恐惧”并存。在英国,认为AI是经济风险而非机遇的人群比例较高的调查也引起了关注。人们重视的是“理解”而非新奇。 The Washington Post


6. 反AI但也使用AI——2025年的“抵抗”现实

有趣的是,许多自认为对AI持抵抗态度的人实际上部分使用AI。学生、开发者、创作者中有一部分因伦理、准确性、就业不安而保持距离的运动,另一方面完全避免使用很难,存在“限定用途的并用”现实。技术的接受不是二元的。从心理学角度看,选择权的丧失感正是导致不信任的燃料。 Axios


7. 媒体传播的足迹:文章是如何被阅读的

此次Phys.org的再发布基于The Conversation的稿件。相同主题的文章也被其他媒体发布和转载,曝光度扩大。SNS上的直接链接数量并不爆炸,但评论区和转载处的讨论如我们所见,是“赞成与反对并存”。 phys.org uk.news.yahoo.com


8. “展示机制”还不够——信任设计的三原则

文章使用了“从黑箱到对话”的比喻。从中提炼出产品和服务设计的三原则。 phys.org

  1. 透明性(Transparency)
    在初次接触时明确“处理什么数据、如何处理、有什么限制”。不是专业术语的堆砌,而是前置说明结果波动的条件和“弱点模式”。

  2. 可问性(Interrogability)
    给结果“反问”的余地。提供依据的摘要、替代方案、错误的自我申报。用户可以抛出“为什么?”的UI能够缓解期望违背的痛苦。

  3. 选择权(Agency)
    确保不是默认值的自动化,而是选择加入/粒度设置/撤回的容易性。用户可以“以自己的节奏”委托,是接受的最大关键。


9. 现场实施的笔记——产品/政策的双轮

  • 产品方面

    • 重要任务中使用“双重锁”:AI方案→人类的最终批准。

    • 标准配备模型的自信度和不确定性可视化。

    • 保留审计日志和解释的再现性(“相同输入则相同解释”原则)。

    • 保留“不做”的自由:避免始终开启的AI摘要和“建议的强加”。

  • 组织和教育方面

    • 向员工和学习者教授**“AI依赖的副作用”**(思考停止、误学习)等数字能力。

    • 制度化生成物的来源显示(AI参与的披露)和重要决策的对人责任的所在。

    • 公共部门将可解释性和救济措施作为必备要求(信用、招聘、医疗的自动判断等)。


10. 超越两极化——寻找“可达成的最低限度”

无需赞美AI,也无需全面否定。我们需要的是“在什么条件下可以委托”的可达成的阈值。

  • 显示数据来源

  • 提供错误时的救济

  • 重要决策可以回归人类

  • 尊重“不使用”的选择

当满足这些最低限度时,AI将从**“不可见的黑箱”走向“可接受的伙伴”**。最新报道和SNS的温度感正是追求这一点。直面便利与不安并存的现实,设计可反问的关系。这才是超越好恶分裂的唯一处方。 The Washington Post



参考与出处(本文中引用)

  • Phys.org再发布(2025年11月3日):影响AI好恶的心理(黑箱、拟人化、期望违背等)。 phys.org

  • 算法厌恶的概念整理。 维基百科

  • SNS舆论的一端(Reddit的AI不信任线程)。 Reddit

  • 舆论动向(美国的怀疑扩大)。 The Washington Post

  • 英国的“机遇与风险”倾向。 The Guardian

  • 同主题文章的转载情况(Yahoo等)。 uk.news.yahoo.com

    ##HTML
← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.