硬刚五角大楼!硅谷“清流”Anthropic怒掀桌子:想拿Claude当“终结者”?没门!

温故智新AIGC实验室

TL;DR:

AI 届的“道德标兵”Anthropic 最近和美国国防部撕破脸了。因为拒绝取消对 AI 军事用途的限制(比如拒绝搞自动杀人机器),五角大楼反手给它扣了一顶“供应链风险”的大帽子。Anthropic 表示不服:不仅要起诉,还要把这出“权力游戏”彻底曝光。

谁也没想到,一直以“安全、诚实、无害”为座右铭的 Anthropic,这次竟然成了美国国防部的“眼中钉”。

就在最近,这家由 OpenAI “叛将”们创立的 AI 巨头,一口气把五角大楼告上了法庭。原因很简单:五角大楼把 Anthropic 列入了**“供应链风险清单”**。这可不是简单的“差评”,在华盛顿的语境里,这基本上是给一家科技公司判了“职场死刑”,意味着所有政府承包商都得离它远点。1

搞 AI 也有“红线”:Anthropic 的原则之争

Anthropic 旗下的 Claude 模型,一直被公认为大模型界的“三好学生”。但这位好学生很有个性,它在服务条款里划了两条死死的**“红线”**:

  1. 绝对不搞全自动致命武器:也就是现实版的“终结者”,那种不需要人扣扳机、由 AI 决定谁生谁死的玩意儿。
  2. 绝对不搞大规模国内监控:保护隐私,拒绝当“老大哥”的眼睛。2

这种“宁肯不赚钱,也要保晚节”的态度,直接惹毛了五角大楼的高官们。国防部的高级官员觉得:我给你钱,你居然还敢跟我谈条件?军方要的是在法律允许范围内的“全功能使用”,绝不允许供应商通过限制关键能力来干扰指挥系统。2

“这就是一场赤裸裸的意识形态霸凌。” —— 针对 Anthropic 的遭遇,一位业内观察人士如此评价。

特朗普入局,火药味儿更浓了

这场官司的背景更加魔幻。就在几天前,美国总统特朗普在社交媒体上直接点名,要求联邦机构“立即”停止与 Anthropic 的合作,理由是这家公司试图强迫国防部遵守他们的服务条款。3

紧接着,国防部长赫格塞斯给 Anthropic 下了最后通牒:要么在 2 月 27 日下午 5 点前同意军方的所有要求,要么滚蛋。Anthropic 选择了第三条路:法庭见3

目前的情况是,五角大楼已经准备取消一笔价值 2 亿美元的合同。而 Anthropic 在诉状中反击称,这种认定完全没有法律依据,纯粹是由于双方在 AI 军事用途上的分歧而产生的“报复性定性”。1

行业“地震”:谁才是真正的安全威胁?

最讽刺的是,虽然五角大楼嘴上说着 Claude 是“风险”,但身体却很诚实。据知情人士透露,Claude 其实是唯一被应用到美国国防部机密网络的 AI 模型,甚至在某些针对特定地区的军事行动中大显身手。2

这一波“端起碗吃饭,放下碗骂娘”的操作,让科技圈炸了锅:

  • 对 Anthropic 来说:如果丢了政府订单,那可是一大块肥肉;但如果放弃了安全底线,那它的品牌护城河也就塌了。
  • 对五角大楼来说:如果不杀一儆百,以后其他 AI 公司也跟着学“闹独立”,那军队的 AI 战略还怎么推?
  • 对我们普通人来说:这场诉讼其实在帮我们问一个终极问题——AI 到底应该听命于“算法伦理”,还是听命于“权力意志”?

目前,Anthropic 的 CEO 达里奥·阿莫迪(Dario Amodei)态度依然坚硬。他表示,公司宁愿只收取名义成本来支持国家安全专家,也绝不会在“全自动武器”这种原则问题上退缩。2 这场科技、军事与法律的超级大戏,才刚刚拉开序幕。

引用