拒绝当“杀人机器”?Anthropic 硬刚五角大楼:我不卖命,你竟然说我有毒?

温故智新AIGC实验室

TL;DR:

因为拒绝把 Claude 变成“电子士兵”,AI 界的清流 Anthropic 被五角大楼反手贴上了“供应链风险”的标签。特朗普大手一挥直接封杀,Anthropic 委屈地跑去法院哭诉:我不干黑产,你居然说我是间谍?

就在这周二,北加州联邦法院上演了一场“赛博时代的爱恨情仇”。一边是坚持“AI 安全至上”的科技新贵 Anthropic,另一边则是武装到牙齿的美国五角大楼。双方吵架的原因很简单:军方想让 Claude 上战场,Anthropic 说“我们要Peace & Love”,结果就被拉黑了。1

搞伦理的被贴“风险标签”:这波操作很迷

事情的起因是 Anthropic 有点“轴”。作为一家以宪法 AI(Constitutional AI)立身的公理公司,他们坚决拒绝让自己的模型被用于国内大规模监视或全自动致死性武器系统。翻译成人话就是:Claude 可以帮你写周报,但不能帮军方扣扳机。

结果,这一举动直接惹恼了大佬。国防部长皮特·海格塞斯(Pete Hegseth)反手就给 Anthropic 扣了一顶“供应链风险”的大帽子。2

“如果不让军方随心所欲地用,那 Anthropic 的员工就有可能搞破坏,或者在国家安全系统中埋雷。” —— 司法部在法庭文件中如是说。

调侃:这逻辑像极了分手后的前任——“你不听我的,你一定就是想害我!”

特朗普甚至在自家的 Truth Social 上直接指示所有联邦机构停止使用 Anthropic 的工具。3 更魔幻的是,特朗普现在把国防部(Department of Defense)改回了旧称“战争部”(Department of War),听起来这火药味儿简直要溢出屏幕了。

行业“地震”:有人哭,有人笑,有人趁机补刀

Anthropic 这次是真的急了,他们向法院申请紧急禁令,理由是这种“供应链风险”的定性会造成“不可弥补的损害”。毕竟,这不仅是丢了军方的订单,更是直接断了所有政府供应商的财路,损失起步就是几亿美金。14

但在 Anthropic 焦头烂额的时候,友商们的表现就很耐人寻味了:

  • OpenAI 也没闲着: 山姆·奥特曼(Sam Altman)动作飞快,已经带着新合约进场填补空缺了。他甚至公开表示,OpenAI 提供的安全护栏“比以往任何协议都多,包括 Anthropic 之前的”。3
  • xAI 与 Google 强势围观: 五角大楼已经明确表示,正在努力部署 Google、OpenAI 和马斯克的 xAI 作为替代方案。2

这就是职场残酷真相:你不肯做的脏活累活,后面有一排竞争对手正排队等着领号呢。

未来预测:AI 的“中立区”还存在吗?

这场官司不仅是 Anthropic 的生死战,更是 AI 行业的一个转折点。

参议员吉利布兰德(Kirsten Gillibrand)就吐槽说,政府这种“公然攻击自家企业”的行为简直是在给敌人送礼。3 现在的局面变得非常吊诡:如果你坚持伦理,你可能在国家安全层面被视为“不忠”;如果你全面配合,你又可能面临社会舆论对“AI 武器化”的口诛笔伐。

Anthropic 创始人达里奥·阿莫代伊(Dario Amodei)表示,除了法庭见,他们别无选择。3 这场诉讼的结果,将决定未来的 AI 到底是人类的“智能助手”,还是必须服从国家意志的“赛博长城”。

对于我们普通用户来说,最担心的可能还是:Claude 以后还能不能愉快地帮我润色简历了?

引用


  1. Anthropic and Pentagon face off in court over ban on company’s AI model · The Guardian · (2026/3/25) · 检索日期2026/3/25 ↩︎ ↩︎

  2. Justice Department Says Anthropic Can't Be Trusted With ... · WIRED · (2026/3/25) · 检索日期2026/3/25 ↩︎ ↩︎

  3. 五角大樓將AI公司Anthropic列為供應鏈風險,或遭起訴 · BBC · (2026/3/5) · 检索日期2026/3/25 ↩︎ ↩︎ ↩︎ ↩︎

  4. AI軍事紅線爆衝突!Anthropic提告五角大廈 · Yahoo 財經 · (2026/3/9) · 检索日期2026/3/25 ↩︎