2亿美金买不到“不杀人”的承诺:Anthropic硬刚五角大楼,这波“清高”值吗?

温故智新AIGC实验室

TL;DR:

Anthropic 带着它的“道德洁癖”去五角大楼谈生意,结果双方因为 AI 能不能“开火”吵翻了。2 亿美金的大单现在悬在半空,马斯克的 xAI 已经在旁边磨刀霍霍准备接盘,这场“硅谷理想主义 vs 华盛顿实战派”的史诗级拉锯战才刚刚开始。

原本以为硅谷大厂和五角大楼的合作是“强强联手、征服星辰大海”,结果 Anthropic 却给军方大佬们上了一课:什么叫“我有我的底线”。最近,这家以“安全”为立命之本的 AI 初创公司,因为坚持给自家的 Claude 模型加装“道德护栏”,直接把一份价值 2 亿美元的国防合同谈崩了。1

说白了,Anthropic 想要的是一个能帮政府写报告、搞物流的“三好学生”,而五角大楼(现在被特朗普政府更名为“战争部”)想要的,却是一个能直接上战场、且不掉链子的“超级战士”。

道德护栏 vs. 战场杀手:AI 到底听谁的?

这场冲突的焦点在于 Anthropic 极其硬核的“使用条款”。作为一家由 OpenAI “叛将”们创立的公司,Anthropic 骨子里就刻着对 AI 失控的恐惧。他们坚持,Claude 模型绝对不能用于“国内监控”,更不能在缺乏人类监督的情况下参与“自主致命行动”。2 简单来说,就是武器瞄准可以,但最后那个按钮必须得由人来按,且绝对不能用来盯着自家人。

“我们支持国防,但 AI 不应该让我们变得像‘专制对手’一样。” —— Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)在博客中如是说。3

这种“我可以帮你,但你不能拿我做坏事”的态度,在五角大楼看来简直就是“端起碗吃饭,放下筷子骂娘”。国防部官员们的主张非常直接:只要符合美国法律,商业 AI 就应该能无限制地部署到任何合法军事活动中。2 毕竟,在瞬息万变的战场上,如果 AI 突然跳出一个弹窗说“对不起,这不符合我的道德准则”,那前线的士兵估计得集体破防。

行业“地震”:谁在看笑话,谁在挖墙脚?

Anthropic 的“清高”让其在华盛顿的日子越来越不好过。白宫官员大卫·萨克斯(David Sacks)直接给他们贴上了“AI 末日论者”的标签。2 而新任国防部长皮特·赫格塞斯(Pete Hegseth)在宣布与马斯克的 xAI 合作时,更是阴阳怪气地补了一刀:“我们不会采用那种‘不让你打仗’的 AI 模型。”2

  • xAI (Grok): 马斯克主打一个“反觉醒”,只要给钱,护栏什么的都好商量。
  • OpenAI & Google: 也在积极争取军方订单,虽然也有伦理考量,但显然没 Anthropic 这么“轴”。
  • Palantir: 作为一个中间商,它曾带着 Claude 参与了针对委内瑞拉的军事任务,结果 Anthropic 事后追问用途的行为,让五角大楼感到被冒犯了。4

现在的情况是,五角大楼甚至威胁要将 Anthropic 列入“供应链风险黑名单”。4 这可不是闹着玩的,一旦进了黑名单,Anthropic 不仅丢了这 2 亿美金,以后所有跟美军合作的企业恐怕都得跟它撇清关系。对于正准备冲刺上市、寻求 3500 亿美金估值的 Anthropic 来说,这无异于在上市敲钟前踢到了钢板。

未来预测:硅谷能否定义战争的底线?

这不仅仅是一家公司和一份合同的事,它预示着一个大趋势:当 AI 真正具备改变战争格局的能力时,技术专家还能否保住他们的“伦理高地”?

目前,美军陷入了一个尴尬的境地。虽然他们看 Anthropic 不顺眼,但不得不承认,在某些机密应用场景中,Claude 确实比其他模型更好用。4 这种“爱恨交织”的关系让谈判陷入了僵局。

如果 Anthropic 最终妥协,那将是硅谷伦理主义的重大退却;如果它坚持到底并最终被封杀,那我们就将看到一个完全由“实战派”主导的 AI 军备竞赛时代。无论结局如何,这场关于“代码与良知”的博弈,都将成为 AI 发展史上的一个关键转折点。

引用