TL;DR:
五角大楼和AI界“优等生”Anthropic正式闹掰了。一边是坚持“不作恶、不杀人”的宪法AI,另一边是只想拿它搞监控和自动武器的国防部,甚至还下了周五前必须“听话”的最后通牒。这场“硅谷白莲花”与“战争机器”的硬刚,直接让2亿美元的合同悬在半空。
五角大楼的“夺命连环催”:周五前,给我一个交待
这周,AI圈上演了一场真实版的《当圣母遇上战神》。
美国国防部长皮特·赫格塞斯(Pete Hegseth)亲自带队,和Anthropic的CEO达里奥·阿莫迪(Dario Amodei)坐到了谈判桌前。场面大概并不温馨:赫格塞斯直接甩出一张“限时答复令”,要求Anthropic在周五下班前同意政府的条款,否则就等着“吃板子(惩罚)”吧1。
争论的核心其实很简单:五角大楼想要“全权限模式”,而Anthropic还在坚持“护栏模式”。作为一直以“安全第一”自居的AI公司,Anthropic给自家的Claude模型立了不少牌坊,比如严禁用于大规模监视,更不准参与那种不需要人点火、AI自己就能决定杀不杀人的“自主武器系统”2。
但五角大楼显然不买账。在他们眼里,我花了2亿美元(虽然合同上限是这个数),不是为了买个会念《大悲咒》的聊天机器人。赫格塞斯甚至在之前宣布和马斯克的xAI合作时,意有所指地补了一刀:
“我们不会雇佣那些不准你打仗的AI模型。”3
(调侃:这潜台词翻译过来就是——你要是想当圣人,就别来吃这碗军饷。)
道德洁癖 vs. 战地刚需:当“宪法AI”遇上“战争机器”
Anthropic的处境现在非常尴尬。他们一直以来的人设是“OpenAI的道德对立面”——因为嫌OpenAI不够安全才出走创业,还搞出了所谓的“宪法AI”(Constitutional AI),让模型根据一套原则来自我约束3。
结果呢?根据《华尔街日报》的爆料,这种“道德洁癖”在现实面前碎了一地。据说在上个月美军突袭委内瑞拉、抓捕马杜罗的行动中,五角大楼通过军工中间商Palantir的数据接口,已经让Claude协助规划了空袭路线3。
这事儿在Anthropic内部引起了不小的震动,员工们满脸问号:说好的“禁止用于暴力”呢?这就像是你卖给邻居一把切菜刀,千叮咛万嘱咐只能切土豆,结果转头发现人家拿着它去隔壁收保护费了4。
- 五角大楼的逻辑:只要符合美国法律,商业AI就该不受限地部署。私人公司没资格定义什么是“合法的军事活动”2。
- Anthropic的担忧:阿莫迪担心如果开了这个口子,美国会变得像那些“专制对手”一样,用AI对内监视、对外滥杀2。
2亿美元的“分手费”?这不仅是钱的事儿
如果谈崩了,Anthropic不仅可能丢掉那份价值2亿美元的合同,还可能被五角大楼贴上“供应链风险”的标签4。这对于一家正寻求以3500亿美元估值融资并筹备上市的公司来说,简直是公关和财务的双重炸弹2。
但讽刺的是,美军现在也没法立刻甩了Claude。因为在处理复杂代码和政府特定应用方面,Claude确实比同行更“香”。其他的模型要么能力还没跟上,要么还没通过机密网络的接入许可4。
这种“又嫌你事儿多,又离不开你”的渣男心态,让这场博弈充满了悬念。
未来预测:AI界的奥本海默时刻?
阿莫迪现在的处境,像极了当年的奥本海默。他想做那个掌控潘多拉魔盒的人,但他可能忘了,当魔盒交给国家机器时,锁扣在哪儿就不再由他说了算了3。
未来的战争可能真的不需要宣战。在这个充满赛博色彩的2026年,也许只需要在对话框里输入一行Prompt:
“Hey Claude,帮我制定一个最符合‘宪法AI’原则的逮捕方案,记得避开平民,但一定要把人给我抓回来。”
到底Anthropic会为了2亿美元折腰,还是坚持做一个“有尊严的末日论者”?周五的最后通牒见分晓。
引用
-
US military leaders meet with Anthropic to argue against Claude safeguards · The Guardian · (2026/2/24) · 检索日期2026/2/25 ↩︎
-
堅守道德護欄惹怒五角大廈?Anthropic 2 億美元國防 AI 合約陷危機 · TechNews · (2026/1/30) · 检索日期2026/2/25 ↩︎ ↩︎ ↩︎ ↩︎
-
五角大楼用Claude策划军事行动 · 新浪新闻 · (2026/2/23) · 检索日期2026/2/25 ↩︎ ↩︎ ↩︎ ↩︎
-
傳Anthropic、五角大廈有分歧 軍方合約可能生變 · MoneyDJ理財網 · (2026/2/23) · 检索日期2026/2/25 ↩︎ ↩︎ ↩︎