TL;DR:
Anthropic因为拒绝把Claude送上“战场”杀人和“回国”监控,被美国政府贴上了通常只给敌对国家的“供应链风险”标签。CEO阿莫代伊表示这锅不背,反手就是一个起诉:想让我们当法外狂徒?没门!
曾经是五角大楼最宠溺的“AI战友”,如今却成了白宫口中的“左翼疯子”,Anthropic最近这出《从入门到入土》的官场现形记,简直比好莱坞大片还精彩。1
事情的导火索简单粗暴:美国国防部(五角大楼)给Anthropic下了最后通牒,要求他们删除Claude模型里的两道安全红线——“不得用于大规模国内监控”和“禁止应用于全自主致命武器”。五角大楼的意思很明白:既然拿了我的钱(2亿美元合同),就得听我的,AI怎么用应该是统帅说了算,而不是程序员写在服务条款里。2
结果,Anthropic这个学术气十足的公司硬是没“滑跪”。CEO达里奥·阿莫代伊(Dario Amodei)直接回怼:技术太快法律太慢,如果现在就放开限制,AI可能会变成24小时不眨眼的老大哥,或者在战场上自行决定谁该领便当。1 这种“不听话”的行为彻底惹毛了华盛顿,总统特朗普和国防部长赫格塞斯联手把Anthropic拉入了黑名单,理由是:你对国家安全构成了“供应链风险”。3
科技圈“地震”:爱国者还是叛徒?
把一家根正苗红的美国硅谷独角兽列为“供应链风险”,这在历史上还是头一遭。4 以前这个“待遇”通常是留给卡巴斯基或者某些被怀疑有海外背景的公司的。这种定性意味着,任何跟军方有生意往来的公司,都不能在相关项目里用Claude了。5
“这不仅是终止合同,这是在搞‘报复性社死’。”——某不愿透露姓名的硅谷分析师调侃道。
有趣的是,就在Anthropic因为守住底线被“踢出群聊”时,隔壁的OpenAI表现得就非常“懂事”。Sam Altman火速上线,和军方谈妥了框架,同意在法律允许的所有范围内使用模型,但会加一点自己的“技术护栏”。1 这种**“一个坚持理想主义,一个拥抱现实主义”**的对比,让硅谷的裂痕清晰可见。
技术大揭秘:这两条“红线”到底在怕什么?
很多人不理解,为什么Anthropic宁愿损失几亿美金也要死守红线?阿莫代伊在采访中透了底:
- 大规模国内监控:现在的AI分析数据太强了。政府可以买下你的位置、偏好、甚至政治倾向,用AI一键建档。阿莫代伊认为这虽然目前不违法,但纯属“法律还没追上技术”,是滥用权力。1
- 全自主武器:现在的AI还没聪明到能分清平民和敌军,本质上的不可预测性会让它变成一颗随机炸弹。如果让千万架无人机自己决定开火,后果谁来背锅?2
面对这种“觉醒文化”的抵制,特朗普政府显然不买账。在他们看来,如果美国AI因为这些“意识形态奇想”自缚手脚,那么在全球AI竞赛中就会把领先地位拱手让人。2
未来预测:下一个“风口”是法庭见?
Anthropic目前已经准备好起诉书,理由是政府的认定“缺乏法律依据”。4 这是一个非常微妙的法律博弈:一家私营公司是否有权基于伦理原则拒绝政府的“合法要求”?
与此同时,科技巨头们如苹果、Google、微软也坐不住了。他们担心如果五角大楼把“供应链风险”当成处理合同纠纷的工具,那以后谁还敢跟政府做生意?3 微软虽然还在推销Claude模型,但也明确表示会在国防部应用中将其“物理隔离”。3
这场官司的结果,将决定未来AI是作为一种**“受监管的公共利器”存在,还是成为“绝对服从的战争机器”**。毕竟,正如阿莫代伊所说,真正的爱国不是盲从,而是在技术失控前划好那道救命的底线。1
引用
-
把国防部长气疯,把特朗普惹毛,Anthropic CEO宁死不踩的AI底线 ... · 新浪财经 · 市场资讯 (2026/03/02) · 检索日期2026/03/10 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
为什么特朗普指示联邦政府禁用Anthropic的产品 - 安全内参 · 安全内参 · 礼士蛮 (2026/02/28) · 检索日期2026/03/10 ↩︎ ↩︎ ↩︎
-
AI獨角獸Anthropic拒大規模監控美國公民首間美企被特朗普政府列入 ... · BusinessFocus · Shiney Xu (2026/03/06) · 检索日期2026/03/10 ↩︎ ↩︎ ↩︎
-
Anthropic硬刚五角大楼:“供应链风险”认定缺乏法律依据将提起诉讼 · 财联社 · 夏军雄 (2026/02/28) · 检索日期2026/03/10 ↩︎ ↩︎
-
Claude 母公司Anthropic 遭美政府封殺開美企先例特朗普 - Yahoo新聞 · Yahoo新闻 (2026/02/28) · 检索日期2026/03/10 ↩︎