跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

大多数的少数派让世界变得黯淡——恶意评论的“人数”和“曝光”问题

大多数的少数派让世界变得黯淡——恶意评论的“人数”和“曝光”问题

2025年12月18日 00:41

1)感觉“社交媒体过于混乱”并不是因为你太敏感

打开时间线,愤怒的断言、嘲笑、人身攻击、粗糙的阴谋论——。仅仅几分钟的浏览就会让人心情低落。如果这种体验持续下去,人们可能会觉得“网络已经无可救药”“大家都变得攻击性十足”。


然而,在这里我们想要尝试分解一下问题。
我们每天看到的是“帖子总量”或“眼前的曝光”,而不一定是“发布这些帖子的人数”。


Phys.org介绍的PNAS Nexus的研究表明,这种“人数的估计”可能比想象中更有偏差。 Phys.org



2)研究关注的不是“毒性的多寡”,而是“有多少人在发布毒性内容”

研究团队对1,090名美国成年人进行了调查(使用CloudResearch Connect),比较人们对“发布有害帖子用户比例”的估计与现有的大规模研究显示的“平台实际数据”。 Phys.org


关键在这里。
这项研究并不是否定“社交媒体看起来很混乱”这一事实。
相反,它在确认“看起来混乱的感觉”是否不知不觉中被替换成了“多数人都很混乱”的认知。



3)令人震惊的差距:43% vs 3%、47% vs 8.5%

结果相当极端。

  • 参与者平均估计在Reddit上发布“严重毒性评论”的用户比例为**43%。
    但现有数据表明,实际上约为
    3%**。 Phys.org

  • 参与者还估计在Facebook上分享“假新闻”的用户比例为**47%。
    而现有研究显示约为
    8.5%**。 Phys.org

研究中的表述显示,Reddit上的过高估计约为13倍,Facebook上约为5倍。 Phys.org


在这里起作用的是“即使人数少,但活动量大看起来像是‘多人’”的结构。如果毒性来源集中在“少数重度发帖者”身上,遇到的次数就会激增,我们的大脑会推测“有很多这样的人”。



4)有趣的是“即使能判断毒性,人数估计仍会偏差”

“那是不是因为无法识别毒性内容?”这样的反驳是合理的。但研究表明,即使参与者在毒性帖子识别任务(信号检测任务)中能够正确判断,**“有多少人发布这些内容”**的过高估计依然存在。 Phys.org


也就是说,问题不仅仅是识别能力。
在人类的估计机制中,社交媒体环境容易出现偏差。



5)为何少数人看起来像“多数”:扭曲体感安全的三个装置

以下是为了将研究结果与日常感受联系起来的整理。


装置A:发帖量的偏差(一个人看起来像几十人)
大多数人不发帖,而一部分人大量发帖。如果毒性集中在这一层,即使人数少,也会感觉“总是同样的氛围”。


装置B:算法的曝光放大
愤怒、对立、断言容易引发反应。如果反应多的内容更容易被显示,即使基数比例低,“遇到率”也会高。


装置C:记忆的偏差(强烈的不快更容易留下)
比起普通的100次互动,刺耳的辱骂更容易留下。结果,脑中的样本偏差,导致“多”的估计。



6)纠正误解,情绪和社会观会“实际”改变

更重要的是,研究显示,当传达实际比例(有害发帖者是少数)的信息干预时,参与者

  • 感到更加积极,

  • “社会道德在下降”的感觉减弱,

  • “大多数人不希望有害内容”的相关误解也减少了

据报道。 Phys.org


社交媒体的讨论往往倾向于“应该监管/言论自由”的二元对立,但在此之前,有一种机制是**“我们的误解(人数的估计)使社会观变得消极”**——这是这项研究的关键。



7)社交媒体的反应:同时出现的“比例”争论

这个话题在社交媒体上也分成了“理解派”和“不是重点派”,引发了热烈讨论。


反应①“当然如此。少数超级活跃者塑造了氛围”

在Hacker News上,“大部分不良内容来自‘毒性强且活跃的少数(加上机器人)’,因此管理是有效的”这一观点获得了支持。 Hacker News


在LinkedIn上,也有评论指出“43%和3%的差距很大。一个人大量发帖看起来像‘几十个不同的人在生气’”。 LinkedIn


反应②“问题不在于‘人数’,而在于‘曝光(覆盖率)’”

另一方面,在HN上,有人指出“如果节点(少数)连接到整个网络,即使比例低,整体看起来也会有毒。重要的是‘被推送的程度’”。 Hacker News


总之,比起“少数还是多数”,分发设计和扩散设计才是关键,这是一种反驳。


反应③“定义是否过于狭窄?”

在HN上,有人质疑“如果研究中的‘毒性’定义主要集中在辱骂或威胁等明显的内容上,可能无法解释我们感受到的‘整体氛围的恶化’”。 Hacker News


反应④“话题跳到身份验证(KYC)和治理”

关于“通过KYC减少破坏者”的意见,引发了关于隐私和权力滥用的反驳,典型的论点拉锯战随之而来。 Hacker News



8)这项研究带来的“现实”启示

这项研究并不是在说“社交媒体没问题”。即使人数少,危害也可能很大,而虚假信息在某些领域可能是致命的。


然而,至少以下启示是实用的。

  • 个人:不要简单地将遭遇等同于多数派(减少心理磨损)。

  • 平台:如何处理少数高频账户(可视化发帖频率、减少磨损的举报路径、重新审视覆盖设计)。

  • 社会:“网络已经完蛋了”这种悲观情绪本身可能会导致沉默,从而形成“混乱声音”突出的恶性循环。因此,共享比例现实的教育干预可能会意外地有效。 Phys.org


参考文章

在线上的荒诞并不像人们想象的那么多
来源: https://phys.org/news/2025-12-online-trolls-people.html

由Froala Editor提供技术支持

← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.