记者可以在多大程度上使用AI——透明性是否适得其反?AI时代新闻面临的“告知困境”

记者可以在多大程度上使用AI——透明性是否适得其反?AI时代新闻面临的“告知困境”

AI成为新闻编辑室的“隐形共同编辑者”。采访笔记的转录、海量文件的整理、摘要、标题建议、图像辅助……。以前需要人力和时间的流程,现在只需几分钟即可完成。对于资金紧张的新闻行业来说,AI是一种“降低成本、提高速度”的有吸引力的手段。然而,这种便利性同时也模糊了“责任的所在”,动摇了信任。


这种紧张关系终于作为“劳资争议的焦点”浮出水面。以独立调查报道闻名的ProPublica的记者们在围绕AI使用的谈判中表现出强硬立场,AI运营成为新闻行业劳动争议的主要论点,备受关注。



1) 目前现场发生的事情:AI是“有用的”——但事故也在增加

现场无法放弃AI的理由很明确。在数据导向的采访中,AI简化了复杂的工作,节省了时间。语音转录已经自动化成为常态,搜索服务本身也开始整合AI摘要。


另一方面,匆忙引入AI导致的“事故”也开始浮出水面。包括纠正AI摘要错误的案例、混入不存在的作者名义的投稿、生成物捏造事实的案例。具有象征意义的是,Ars Technica发表了一篇包含AI工具生成的“捏造引用”的文章,随后撤回并道歉。老牌科技报道媒体自食其果,暴露了AI的典型弱点(将看似合理的谎言混入)。


也就是说,AI既可以成为“效率化的天使”,也可以成为“信任损毁的恶魔”。问题在于,新闻组织尚未决定在这种双重性前提下“在哪里设置护栏”。



2) 为什么会有争议:AI治理的论点是“权力”而非“文章”

将此次争议简化为“是否用AI写文章”是误判。实际的争议范围更广。

  • 披露(Disclosure):如何向读者传达使用AI的事实

  • 人类参与(Human-in-the-loop):在哪些流程中必须有人类判断

  • 就业与职能(Jobs):当AI取代工作时,谁被保护,谁被重新安置

  • 编辑责任(Accountability):出现错误时,责任在记者、编辑还是工具引入者


ProPublica方面(管理层)认为“在变化迅速的技术上固定化运用到多年合同中是危险的”,而工会方面则反对称“如果不固定化就无法制止”。这正是治理的拉锯战。


这里重要的是,AI的应用范围不是“点”而是“线”在扩展。从采访开始到发布,AI可能参与无数流程。因此,“使用AI就必须显示”这样的简单规则,有时无法准确反映现场的实际情况。



3) “披露会提高信任”是幻想?—“告知的两难”

读者普遍表示“想知道AI的使用情况”。然而,实际明确表示使用AI时,反而有降低信任的倾向——这种矛盾令报道现场困惑。


为什么呢?可以考虑几个原因。
一个是,读者将AI直接与“削减成本的工具”“偷工减料的象征”联系起来。另一个是,生成AI的“幻觉”广为人知,“AI=错误的温床”的先入为主观念增强。Ars Technica的撤回事件正好强化了这种不信任。


此外,部分人认为“根本不希望AI用于报道”。披露对于这些人来说成了“警告标签”。


最终,披露既可能成为“诚实的证明”,也可能带来“质量下降”或“记者缺席”的联想风险。这就是“Catch-22(进退两难)”。



4) 规则跟不上:变化速度使“规程”过时

AI的进化过于迅速,这种主张在业内常被听到。最近流行的一篇文章煽动称“如果最近几个月没有接触AI,现在的AI已经大不相同”,并迅速传播。这也助长了“即使现在将规程成文,也会很快过时”的论调。


然而,正因为变化快,更需要“基本原则”的观点也存在。例如,

  • 事实核查的责任由人类承担

  • 引用、专有名词、数字需与可验证的依据挂钩

  • AI参与的部分需保留可审计的日志
    即使工具种类改变,也应该能制定出适用的“运营骨架”。


实际上,Trusting News正在推动制定关于AI使用透明性和说明方法的指导方针。



5) “法律”是否应介入:纽约州的NY FAIR News Act引发的波澜

讨论终于波及政治。在纽约州,提出了一项法案(NY FAIR News Act),要求对生成AI参与的新闻内容明确免责和标示,并强制进行人类编辑权限的审核,引发了赞成和反对的声音。


支持者以“确保透明性”“保护劳动者”“读者权益”为理由。反对和担忧者则警惕“政府是否会介入编辑判断”“可能侵犯新闻独立性和表达自由”。


这里可以看到,AI治理正在超越“企业内部的运营”,逐渐成为社会制度设计的论题。



6) SNS的反应:现场的声音开始要求“治理”而非“透明性”

此次论点在SNS上也开始超越“AI是好是坏”的简单对立,焦点开始转向“如何治理”。


(A) 工会和记者方面:不仅要求就业,还要求“信任的护栏”

NewsGuild系的发声将ProPublica的谈判视为“防止AI滥用的防波堤”,并表示不惜罢工的强硬立场。在Bluesky上也能看到对ProPublica行动的声援语气。


含义是这样的:“AI无论如何都会进来。那么,就用合同和流程来限制透明性、人类参与和就业影响的最小化。”


(B) 科技/读者社区:对Ars Technica撤回事件的“审计要求”和“谁做的?”的追问

围绕Ars Technica的“捏造引用”撤回事件,论坛和社区上有很多“为什么没有验证”“谁使用了工具,在哪里未能阻止”的反应,要求进行过程审计。


这与其说是情绪化的AI批评,不如说是将其视为“流程管理的失败”。如果将AI输出视为“素材”,那么需要有素材验收的负责人和标准,这是理所当然的要求。


(C) 对监管法案的反应:“标示”不够/反而“过度介入”

对NY FAIR News Act的反应不一。在LinkedIn等平台上,有人认为“AI不仅是工具引入或标示文案的问题,而是包括数据访问、授权权限、记录性在内的‘生命周期治理’”,讨论更广泛的治理论。


另一方面,也有强烈批评认为这可能损害新闻独立性。质疑法律能否在不影响“编辑内容”的情况下仅担保透明性,现实中很难实现。



7) 那么,新闻编辑室应如何“治理”:三个现实解

针对本文提出的问题,现实的解决方案并非“使用/不使用AI”,而是集中在以下三点。

① 定义“重要的AI使用”,仅在这些地方严格限制

在所有流程中一律披露容易导致运营失败。因此,

  • 正文生成

  • 重要摘要(替代新闻要点的内容)

  • 图像、视频的生成或改动

  • 引用文的生成(这接近于原则上禁止)
    将“影响读者判断、错误损害大的领域”定义为“重要”,进行强有力的审计和披露是合理的。

② 将Human-in-the-loop设计为“责任”而非“编辑”

“人看过了”是不够的。谁、在什么标准下确认了什么。日志和权限的设计成为治理的核心。Ars Technica事件显示的是,规则文案不如运营设计的脆弱。

③ 向读者的解释应是“理解的辅助”而非“免责符”

披露不是提高信任的万能药。因此,不仅仅是贴上“使用了AI”,

  • 使用的目的是什么(例如:转录、资料整理)

  • 未在不应使用的部分使用(例如:未生成引用)

  • 错误发生时的更正步骤
    需要设计为包括这些内容的“解释”。



结论:AI已成为“治理对象”而非“工具”

AI提高了新闻编辑室的效率。但同时,它增加了错误的混入路径,模糊了责任的界限。工会要求AI条款,法案要求透明性,读者社区要求审计,因为AI已不再是“便利的工具”,而是“治理对象”。


未来的新闻不再是是否引入AI,而是“在AI已融入的世界中,如何维护信任”的竞争。决定胜负的不是模型性能,而是治理设计。



出处URL