Anthropic与AI行业的两难境地:“安全第一”本该是首要任务 — 是谁将Anthropic逼入绝境

Anthropic与AI行业的两难境地:“安全第一”本该是首要任务 — 是谁将Anthropic逼入绝境

1) 被“拒绝的企业”视为“国家安全保障风险”——事件轮廓

周五下午,Anthropic迎来了最糟糕的消息。报道称,美国政府决定与该公司断绝关系,并将其排除在国防相关交易之外。起因是因为CEO达里奥·阿莫迪拒绝了有关“对美国公民的大规模监视”以及“无需人类参与即可选择和杀伤目标的完全自主武器”的要求。结果,价值高达2亿美元的合同面临风险,且可能无法与其他国防相关企业合作。


这一局面之所以棘手,不仅仅是因为“政府与民营企业的合同纠纷”。一旦某天突然被贴上“该AI是危险的”“供应链的威胁”等标签,不仅是相关企业,连周边的供应链和合作伙伴企业也会连锁萎缩。

DefenseScoop也指出,这种强硬姿态可能会对整个前沿AI企业泼冷水。


2) TechCrunch揭示的“陷阱”:敌人不仅是政府

TechCrunch的文章有趣之处在于,它并没有简单地将问题二分为“政府专横/企业正确”。文章借用麻省理工学院物理学家兼未来生命研究所创始人Max Tegmark的视角,提出了更痛苦的问题。

为什么一开始就没有阻止这种事态的“法律”?

Tegmark的回答很尖锐。Anthropic一直以“安全第一”为口号,但整个行业并不支持“有约束力的法规”,而是不断声称“相信我们,我们会自愿去做”,并通过游说活动远离监管。结果,食品卫生有法规,而AI却没有——用极端的比喻来说,“AI的监管比三明治还松”,这种状态就这样产生了。


这时,文章标题中的“Anthropic自设的陷阱”就显得尤为重要。即使举起拒绝大规模监视和自主武器的“伦理红线”,如果没有法律支持的基础,一旦对方(政府或发包方)强硬起来,就会被踩破。


“如果法律没有禁止,就有可能被要求”——这一现实现在以最生动的形式浮现出来。


3) 更具讽刺意味的是:安全的招牌与“合作的历史”

文章中Tegmark还提到,Anthropic从以前就与国防和情报机构合作(至少可以追溯到2024年),指出品牌与现实的差距。

 
这一论点在社交媒体上最容易引发争议。因为舆论往往倾向于理解为“完全清白的理想主义者”或“最终是同类”,二者之一。


实际上,社交媒体上的反应也分裂为两极。

  • 赞赏方:“对监视和自主杀伤说不很重要”“守住界限的企业被惩罚是不对的”

  • 批评方:“既然打着安全第一的旗号却与国防合作,现在还装受害者?“讨厌监管的后果只是回到了自己身上”


这种“二元对立”本身就使AI治理的讨论变得困难。现实通常是灰色的,企业在理想与业务之间摇摆,政府在安全保障与公民自由之间摇摆。然而,争论不允许灰色存在。


4) 对“为了战胜中国”论调的反击——以及“国家安全保障”的重新定义

文章的另一个核心是“输给中国”论调。这是反对监管时常常被提及的惯用语。


对此,Tegmark提出了“中国正在禁止人型及拟人化AI(例如AI恋人)”的例子,主张“并不是无限制地开发一切”。此外,无法控制的超级智能可能比敌国更先威胁到本国政府的统治,因此,超级智能不是资产而是国家安全保障上的威胁,他将这一框架引入讨论。


这一观点在社交媒体上很容易引起共鸣。因为这不是简单的“推进还是监管”轴线,而是“如果无法控制,即使是盟友也是威胁”的逻辑。实际上,尽管使用同样的“安全保障”一词,政府将其作为“排除”的依据,而Tegmark则将其作为“开发加速的危险性”的依据。


同一个词,却得出截然相反的结论。这就是AI时代政治语言的可怕之处。


5) SNS加速的“团结”和“搭便车”

此次事件之所以被认为是“社交媒体时代的事件”,是因为反应开始逆流影响决策。


(1) 员工的公开信
据TechCrunch报道,Google和OpenAI的员工签署了一封公开信,支持Anthropic的红线(拒绝大规模监视和完全自主武器),并要求公司也划定相同的界限。信中还引用了“试图通过恐惧分裂我们”的言论。


(2) 有影响力人物的发帖
同一篇文章还介绍了Google的Jeff Dean在X上发帖称“大规模监视违反宪法第四修正案,并对言论自由产生寒蝉效应”。

 
这种“个人的发声”比企业的官方声明更容易传播,结果形成了“行业的氛围”。


(3) 讽刺的“产品效应”
TechCrunch还报道说,随着事件的关注度上升,Claude应用在美国App Store的排名上升至第二位(也提到了排名变化的数据)。争议提升了服务的曝光度——无论好坏,这都是社交媒体经济圈的典型结果。

6) OpenAI的“相同界限”声明是否真实

使事态更加复杂的是,OpenAI宣布与国防部达成协议,并解释说已纳入“禁止大规模监视和自主杀伤”的安全原则。Guardian报道,Sam Altman在X上也表达了类似原则,并表示希望将相同条件提供给其他AI企业。


此时,社交媒体的反应再次分裂。

  • 积极态度:“如果竞争对手也划定相同界限,政府的‘分裂策略’将失效”

  • 怀疑态度:“‘有条款’和‘在运作中遵守’是两回事”“最终只是为了占领市场?”


Tegmark提出的“像临床试验一样经过独立验证后再发布”的想法,正是对这种不信任感的回应。不是承诺,而是验证。不是善意,而是制度。

7) 接下来会发生什么:AI治理从“企业伦理”走向“制度设计”

此次事件揭示的现实是,AI的安全不能仅靠“各公司的理念”来维护。理念可以改变。可以因经营决策而撤回。政权更迭,合同的前提也会改变。正如TechCrunch指出的那样,企业自我设立的安全承诺被放宽的语境也加剧了疑虑。


因此,论点不得不从“Anthropic是善是恶”转向“用法律约束什么,独立审计什么,透明性放在哪里”。


这一事件可能表明,AI行业一直推迟的作业——“通过自我监管渡过难关”的梦想——的期限已经到了。



来源