“硅谷最铁憨憨”硬刚五角大楼:2亿美元生意黄了,也要守住Claude的“底操”?

温故智新AIGC实验室

TL;DR:

五角大楼想让AI模型在战场上“持证开挂”且不设防,结果在Anthropic这儿踢到了铁板。面对2亿美元的“大饼”,Claude的亲爹们坚持不搞自主杀人武器和全民监控,气得军方想给这家“最固执”的AI公司贴上“供应链风险”的黄牌。

在AI圈,Anthropic一直以“安全、老实、有底线”的人设行走江湖。但最近,这位“老实人”摊上大事了。它正跟全球最大的甲方——美国国防部(DoD)当众“掐架”,导火索不是别的,正是AI到底能不能在战场上当“判官”。

这场价值2亿美元(约合13.8亿人民币)的豪赌,已经让双方的关系降到了冰点。五角大楼觉得Anthropic太矫情,而Anthropic觉得自己是在守卫人类最后的良知。

技术大揭秘:当“学霸”Claude遇上“军方教官”

事情的起因是五角大楼向AI圈的“四大天王”——Anthropic、OpenAI、谷歌和xAI同时下了通牒:允许军方将AI模型用于“所有合法用途”。1

这里的“合法用途”听起来正义凛然,但在军方语境下,它其实是一张“免死金牌”。这意味着军方希望撤掉所有针对武器研发、情报搜集和实战操作的限制。说白了,就是要把这些AI模型的“道德枷锁”给卸了。

虽然OpenAI、谷歌等巨头在压力面前表现出了某种程度的“灵活性”(懂得都懂),但Anthropic却成了那个最硬的“铁憨憨”。他们划下了两条死线:

  1. 禁止大规模监控:不准用Claude盯着自家老百姓看。
  2. 禁止研发完全自主武器:绝对不能让AI在没有人类参与的情况下,自己决定扣动扳机。2

现场打脸:抓捕马杜罗引发的“信任危机”

双方的矛盾在一次实战行动后彻底爆发。据《华尔街日报》披露,美军在抓捕委内瑞拉前总统马杜罗的过程中,通过数据外包商Palantir偷偷动用了Claude模型。3

得知消息的Anthropic当场就炸了。公司内部开启了“侦探模式”,质问军方:你们是不是拿着我们的技术去打仗了?

“这简直是文化冲击。军方官员觉得Anthropic太‘意识形态化’了。毕竟在前线,士兵总不能在开火前先问问AI客服:‘亲,我可以攻击那个目标吗?’” 2

五角大楼对此极其不满,认为Anthropic的“事后审查”简直不可理喻。在军方看来,软件供应商不该对手握钢枪的作战人员指手画脚。

未来预测:是“数字良知”还是“供应链风险”?

目前,这场博弈正陷入僵局。五角大楼的脸色很难看,甚至放出狠话:如果Anthropic再这么“不听话”,就要把它列为“供应链风险方”。4 这在国防采购界基本等同于发了张“拉黑卡”。

这让五角大楼也很纠结。一方面,他们嫌Anthropic限制多;另一方面,他们不得不承认,在涉密应用场景中,Claude的表现确实比竞品更“丝滑”。2

行业“地震”:谁在坚持,谁在妥协?

这场争端实际上掀开了AI军事化管理的冰山一角。当AI从写诗、写代码的文字游戏,变成决定生死存亡的决策工具时,开发者该扮演什么角色?

  • 理想主义者认为:AI公司必须守住底线,防止技术变成不受控的杀戮工具。
  • 现实主义者则嘲笑:你不给军方提供模型,难道指望对手也这么“讲文明”吗?

Anthropic目前正处于风暴中心。它既是第一家把模型接入机密网络的AI公司,也是目前唯一一个敢跟五角大楼拍桌子叫板的“愣头青”。3

引用


  1. 2 亿美元合作告急:消息称Anthropic 与美国军方AI 使用分歧激化 · 同花顺财经 (2026/2/18) · 检索日期2026/2/19 ↩︎

  2. 2 亿美元合作告急:消息称 Anthropic 与美国军方 AI 使用分歧激化 · IT之家 · 远洋 (2026/2/18) · 检索日期2026/2/19 ↩︎ ↩︎ ↩︎

  3. 美國防部不滿AI使用限制 揚言終止與Anthropic合作 · 中央社CNA (2026/2/15) · 检索日期2026/2/19 ↩︎ ↩︎

  4. Axios称美国国防部接近与Anthropic切断关系双方就AI军事用途存分歧 · 新浪财经 (2026/2/16) · 检索日期2026/2/19 ↩︎