跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Wikipedia如何应对“AI垃圾”——“快速删除”的冲击:保护质量的新规则

Wikipedia如何应对“AI垃圾”——“快速删除”的冲击:保护质量的新规则

2025年08月10日 12:06

导入:百科全书如何应对“AI洪水”

生成式AI的兴起,带来了“速度”的利弊。短时间内生成大量文本的能力,对像百科全书这样的协作项目来说是一把双刃剑。维基百科目前正面临着被称为“AI垃圾”的低质量内容的涌入,这些内容充斥着错误信息和虚构的引用。The Verge报道称,社区开始像“免疫系统”一样运作,迅速检测、排除异物,并学习应对方法——这就是比喻。 


新规则的内容:G15“未经人工审核的LLM生成页面”

经过讨论,扩展了“快速删除”标准。通常情况下,删除需要经过7天的公开讨论,但明显由AI生成且未经过投稿者人工检查的页面,现在可以由管理员自行决定立即删除(标准名称为“G15”)。主要有两个标志:①“Here is your Wikipedia article…”“as a large language model…”等“提示响应”味道的措辞,②不存在的论文、不相关的引用、无法解决的DOI或无效的ISBN等“捏造引用”。 维基百科404 Media


这一新标准仅适用于“明显值得立即删除”的情况。仅仅是AI风格的文体还不够。恶作剧、广告、虚构文章、骚扰等,作为传统快速删除(如G10或G11)的“明显违规”被定位。 


识别“AI风格”的目录:WikiProject AI Cleanup

社区方面成立了“WikiProject AI Cleanup”,整理AI特有的表达方式和格式的“地雷图”。过度的宣传调、过于整齐的修辞、过多的“moreover”、弯曲的引号(“ ”)或过多的破折号(—)等,许多标志被分享。不过,这些仅是“辅助线”。删除判断的关键在于上述提示直接导入或虚假引用等“决定性痕迹”。 


404 Media最先报道,并波及各国媒体

最先报道政策转变的是404 Media。随后,PCWorld和德国的Heise等跟进,论点在全球范围内被可视化。重点在于“在重视讨论文化的维基百科中,明确了可以例外地优先‘速度’的条件”。 404 MediaPCWorldheise online


基金会的立场:停止摘要AI,但“帮助人的AI”继续

运营主体维基媒体基金会独立于社区的决策。6月,由于社区的反对,基金会停止了在文章开头显示AI摘要的实验(过去曾有强烈的“停止”声音),但继续引入如检测破坏和翻译支持等“支持编辑者的AI”。Edit Check负责提醒引用不足和中立性检查,Paste Check在大量粘贴时确认“是否真的是自己的文章”。 


有什么变化:速度、负担、可靠性

  • 速度:明显的AI垃圾可以不必等待讨论立即处理。若能迅速删除新创建的“破坏性文章”或“捏造引用”,可以将时间用于其他编辑工作。 404 Media

  • 减轻负担:减少对未经过人工审核的AI文章的“善后”负担,重新分配有限的巡查资源。 

  • 可靠性:错误引用和虚构文献动摇了百科全书的根基。将易于识别的“决定性痕迹”标准化的意义重大。 PCWorld


然而,这不是“万能药”

社区自身也有声音认为这只是“创可贴”。即使是AI起稿,只要人类仔细审核也能达到高质量,而人力也能写出劣质文章。因此,G15专注于“明显的错误”。从中长期来看,Edit Check等支持工具、在讨论页面上的共识形成、引用审查的工作流程强化是不可或缺的。 PCWorld


社交媒体的反应:多数支持,但也有误判和萎缩的担忧

 


  • X(前Twitter):以The Verge和Slashdot的帖子为中心传播。总体上是“做得好”的氛围,但也有“是否在否定所有AI?”的反思。 X (formerly Twitter)

  • Reddit:在r/technology和r/wikipedia中,“方向正确”“希望增加捐赠”的支持较为突出,同时也警惕用AI“代笔”带来的讨论,以及对误判风险的指摘。 Reddit

  • Hacker News:长期读者担忧“AI垃圾的循环引用(AI→Wiki→下一代AI)”。欢迎此次标准化,同时讨论开放性与平衡。 Hacker News

  • Threads / Bluesky:评价维基百科的公共性,认为其他平台应效仿的声音时有出现。 ThreadsBluesky Social


如何防止误判?

“AI风格”只是间接证据。维基百科的指南中也明确指出,弯曲的引号或“moreover”的多用等单独不能成为删除理由,最终判断依赖于提示直接导入或捏造引用等“决定性证据”。这是为了避免正当作者的萎缩而设置的安全装置。 


即便如此,仍需要人力的“共识形成”的理由

百科全书的信任立足于引用的可验证性和修订历史的透明性。AI可以辅助这些,但无法替代。基金会的负责人所说的“免疫系统”的比喻,最终显示人的共识成为抗体。编辑者要超越“错误信息的增长速度”,只能提高社区的学习速度。 


展望:正因为开放,所以要明确划定界限

G15是为保护信任而不损害开放性的“最小限度的速度违规”。在重视讨论的文化中,铺设了例外的快速响应轨道,其意义不小。今后,像Paste Check这样的“创建过程透明化”和利用AI提高破坏检测的高级化将成为关键。维基百科不会拒绝AI,而是将在区分“帮助人的AI”和“欺骗人AI”的方向上进化。


参考文章

维基百科如何对抗AI生成的低质量内容
来源: https://www.theverge.com/report/756810/wikipedia-ai-slop-policies-community-speedy-deletion

Powered by Froala Editor

← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.