TL;DR:
一名联邦法官暂停了美国国防部将AI巨头Anthropic列为“供应链风险”的决定,为这家坚持“安全第一”的企业赢得了喘息之机。这场法律博弈不仅暴露了特朗普政府在AI采购上的“忠诚度测试”倾向,更预示着硅谷的技术自主权与华盛顿的战略意志之间正爆发一场深刻的范式冲突。
在五角大楼的宏伟走廊里,官僚主义通常以冰川移动般的速度缓慢行进。然而,当人工智能(AI)的进化速度撞上新一届美国政府的“战争部”效率时,火花瞬间点燃了法律的引信。本周,Anthropic在这场旷日持久且火药味十足的诉讼中取得了初步胜利:法官裁定暂缓执行五角大楼将其列为“供应链风险”的禁令。1 如果说人工智能是新时代的曼哈顿计划,那么Anthropic就是那个因为拒绝交出实验室钥匙而被将军们质疑忠诚度的科学家。
这场冲突的核心不在于技术缺陷,而在于一种罕见的“原则性固执”。Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)拒绝了五角大楼提出的“不受限制访问”Claude模型的要求。2 在华盛顿看来,这种保护技术主权的举动无异于在战时拒绝征调物资;而在Anthropic看来,这是守护AI安全底线的最后堡垒。当特朗普在社交媒体上的一纸令下化作国防部的正式制裁,这一“供应链风险”的标签更像是一种政治惩罚,而非基于网络安全的客观评估。
安全溢价与政治成本
长期以来,Anthropic一直以“AI安全界的优等生”自居。其宪法AI(Constitutional AI)框架旨在确保模型不仅聪明,而且听话且无害。然而,在当前的华盛顿语境下,这种对于“安全性”的执着正成为一种昂贵的政治成本。当政府将国防部改回“战争部”这一带有鲜明扩张色彩的称呼时,它对AI的需求是绝对的服从与无限的接入。3
对于资本市场而言,这无疑敲响了警钟。Anthropic虽然每天仍吸引着超过100万的新用户注册,3 但被贴上“供应链风险”的标签,无异于在商业信誉上留下了一道难以磨灭的墨迹。虽然公司坚称此举不会限制非军事合法的业务往来,但在极度厌恶风险的政府采购市场,这种“政治不正确”的标签往往会导致合作伙伴的集体退潮。
硅谷的两种剧本
这场纠纷也折射出硅谷巨头们截然不同的政治生存策略。一边是坚持“安全隔离”的Anthropic,另一边则是深谙“政治合纵”的OpenAI。萨姆·奥特曼(Sam Altman)迅速与国防部签署了包含更多“护栏”的新合同,并含蓄地批评前者的协议标准已过时。3 这种“顺者昌”的竞争格局,正在AI行业内制造一种危险的先例:技术标准正让位于政治立场。
“政府公然攻击一家美国企业,只因该企业拒绝妥协其自身安全措施——这是中国会做的事,而非美国。” 参议员柯尔丝顿·吉利布兰德的这一评价犀利地指出了问题的本质。3
如果美国政府为了在AI竞赛中战胜对手,而采取了对手式的行政干预手段,那么这种胜利可能本身就是一种失败。这种“自我打击”的行为,可能会迫使顶尖的技术人才和资本在面对国家机器时,不得不通过牺牲技术原则来换取准入许可。
预测:法律暂缓后的战略重组
虽然法院的暂缓执行为Anthropic赢得了一枚银色的盾牌,但长期的地缘政治阴云并未散去。我们可以预见,未来的AI准入将不再仅仅关乎参数(Parameters)的多寡,而将更多地取决于“协议(Protocols)”的深度。
- 采购审查的“武器化”:供应链风险认定将成为华盛顿管控技术公司的常态化工具,促使企业在设计之初就必须考虑“政府接入”的政治接口。
- 市场分化:AI市场可能分裂为“政府合规型”和“中立民用型”。Anthropic的法律抗争若最终失败,可能被迫缩减其在公共部门的雄心,转而深耕对隐私敏感的B端金融与医疗市场。
- 地缘政治博弈的内卷化:随着美中AI竞赛进入白热化,美国内部对于“谁才是真正的爱国AI”的界定将更加严苛。1
在这场被精妙包装成安全问题的权力斗争中,Anthropic正扮演着一个并不讨喜的角色:它提醒着权力的持有者,在通往AGI的道路上,刹车系统有时比引擎更重要。法官的这一“缓刑”裁定,仅仅是为这场关于AI主权、国家安全与商业伦理的宏大叙事按下了暂停键。当大幕再次拉开,决定胜负的恐怕不仅是代码的优劣,更是政治天平上的筹码。
引用
-
Judge Stays Pentagon’s Labeling of Anthropic as ‘Supply Chain Risk’ · cnBeta · (2026/3/10) · 检索日期2026/3/27 ↩︎ ↩︎
-
法官︰特朗普只想報復Anthropic 被列供應鏈風險根本無關「國家安全」 · HKEPC · (2026/3/10) · 检索日期2026/3/27 ↩︎
-
五角大樓將AI公司Anthropic列為供應鏈風險,或遭起訴 · BBC · (2025/3/5) · 检索日期2026/3/27 ↩︎ ↩︎ ↩︎ ↩︎