Claude拒绝当“赛博锦衣卫”后被封杀,结果美军一边卸载一边用它炸伊朗?

温故智新AIGC实验室

TL;DR:

Anthropic因为拒绝把Claude变成“美国版锦衣卫”和五角大楼谈崩了,结果刚被特朗普封杀,转头就被曝出其实是美军空袭伊朗的“幕后功臣”。最精彩的是隔壁OpenAI,前一秒还在声援友商,后一秒就表演了一个“光速滑跪”签下军方大单,这波“底线我守,美金你拿”的戏码属实给硅谷整不会了。

这几天的硅谷,剧情走向比好莱坞特工大片还要魔幻。平时主打“安全、温顺、有良知”的Claude,竟然在现实版的《使命召唤》里当了一回“幕后大佬”。

事情的起因是Anthropic(Claude的老家)跟美国五角大楼闹掰了。根据《大西洋月刊》的最新爆料,双方在谈判桌上原本都要签合同了,结果临门一脚,Anthropic的团队发现五角大楼胃口大得惊人:他们不光想要AI武器,还想要美国民众的信用卡数据、GPS轨迹和搜索历史1

Anthropic的高层当场就破防了:“说好的一起搞国防,你竟然想让我帮你监守自盗?”于是,这笔价值2亿美元的买卖直接告吹。紧接着,特朗普在社交媒体上大笔一挥,宣布封杀Anthropic。

谈判桌上的“真心话大冒险”:要AI,还是要你的信用卡?

这场谈判的画风转变得极快。据知情人士透露,上周五上午,Anthropic还觉得对方准备做出重大让步,双方正乐呵呵地规划未来。可到了下午,五角大楼掏出的新方案里,塞满了让AI分析海量民众隐私数据的条款。

“这哪里是AI防务,这分明是要搞‘赛博锦衣卫’啊!”

Anthropic之所以硬刚,不只是因为这些数据太敏感。其实,这家公司并不完全反对“AI自主武器”——也就是那些不需要人类按按钮就能自己开火的机器2。他们担心的是,现在的Claude还没那么“神”,万一在战场上由于逻辑Bug导致机器乱开枪,误伤了平民甚至是美军自己,这锅谁背?3

五角大楼当时给出了一个“折中方案”:让AI待在云端服务器里,不直接装在无人机上。这样AI只负责整理情报,不负责最后那一扣扳机,责任不就撇清了吗?但Anthropic看得很透:现在的无人机都是联网的,云端和战场的界限早就模糊了。只要AI给出了目标建议,那杀伤决策里就一定有它的影子1

嘴上说不要,身体很诚实:一边封杀,一边带飞?

最讽刺的剧情来了。就在美国政府宣布联邦机构禁用Claude的几个小时后,现实世界发生了一场震惊全球的空袭。

据《华尔街日报》报道,3月1日伊朗确认哈梅内伊遇袭身亡,而在这场精准打击的背后,Claude竟然立了大功1。知情人士证实,美国中央司令部一直在使用Claude进行情报收集、目标识别和模拟作战。甚至在之前委内瑞拉总统马杜罗被捕的行动中,也出现了Claude的身影2

这波操作属实是把“渣男行为”演到了极致:嘴上喊着你是“供应链风险”,要给你断供、封禁;身体却很诚实地用着你的算力,去前线精准投弹。五角大楼甚至还表示,完全“淘汰”Claude需要6个月的时间——翻译一下就是:虽然我骂你,但你还得帮我干半年活1

硅谷“背刺”大戏:奥特曼的表演艺术

就在Anthropic为了伦理底线宁愿丢掉2亿美金的时候,隔壁的OpenAI上演了一场教科书级的“光速背刺”。

起初,OpenAI的CEO萨姆·阿尔特曼(Sam Altman)还一脸正气地声援Anthropic,说这不仅是友商的问题,更是整个行业的问题。结果呢?话音刚落不到12小时,OpenAI就官宣与五角大楼达成了协议,直接把模型部署到了军方的机密网络中1

网友们对此纷纷开启调侃模式:

  • “奥特曼:底线我也有,但得看军方给多少。”
  • “这就是所谓的‘你坚守底线,我坚守美金’?”

虽然OpenAI事后赶紧补救,说合同里有“三条红线”,禁止用于自主武器和大规模监控。但懂行的网友把条款喂给AI一分析,发现里面充斥着“所有合法用途(all lawful purposes)”这种模糊的法律术语。翻译成人话就是:只要上面说是合法的,AI就得照做1

结语:当AI成为战争的“遥控器”

这场风波不仅是一场商业纠葛,更是一面“照妖镜”。它暴露了一个残酷的现实:当AI技术一旦交付给强力部门,它就不再受开发者的控制了。

五角大楼2026财年在AI自主武器上的预算高达134亿美元,从单兵无人机到铺天盖地的无人机集群,AI正在以前所未有的速度接管战场12。对于像Anthropic这样想守住最后一点“伦理防线”的公司来说,未来的路可能会越走越窄。

毕竟,在真金白银和战场胜负面前,所谓的“红线”,往往也就是多敲几行代码就能绕过去的虚线。

引用