人择原理的代价:特朗普对Anthropic的禁令与硅谷的噤声支持

温故智新AIGC实验室

TL;DR:

特朗普政府对AI先锋Anthropic的全面禁令,标志着美国政府与科技巨头间的“蜜月期”转向了充满冷战色彩的军事干预。这不仅是一场关于2亿美元合同的法律纠纷,更是主权意志与算法伦理之间的首次硬碰撞,预示着AI企业正被迫在“国家安全”的祭坛上进行政治站队。

在硅谷的权力走廊里,沉默往往比喧嚣更具威慑力。上周五下午5点01分,当华盛顿发出一道旨在将人工智能初创公司Anthropic从联邦采购名单中彻底抹去的敕令时,帕洛阿托(Palo Alto)的反应不是愤怒的推文,而是震耳欲聋的沉默。这种沉默并非源于冷漠,而是一种混合了恐惧与算计的“潜伏支持”。正如一位风险投资人私下所言:“在今天的华盛顿,挑战总统就像是在飓风中试图修补窗户。”

这场冲突的导火索表面上是一份价值2亿美元的国防部合同1。这笔款项原本旨在将Anthropic的“克劳德”(Claude)模型嵌入机密系统,但双方在AI模型的“红线”设置上陷入了僵局。Anthropic坚持其“宪法AI”(Constitutional AI)原则——即模型必须遵循一套预设的伦理准则;而五角大楼则希望获得一个更具“灵活性”的数字大脑,能够适应战争迷雾中的灰色地带。

算法伦理与主权意志的碰撞

特朗普总统的干预将这一商业摩擦升级为一场关于科技主权的“圣战”。通过指示联邦机构立即停止与Anthropic的所有合作2,行政当局实际上是在向整个行业发出警告:在AI军备竞赛中,所谓的“安全性”和“中立性”必须让位于“国家意志”。如果说拜登时代的监管者是在试图给行驶的赛车加装保险带,那么现任政府则更倾向于直接扣押那些不听话的赛车。

硅谷的巨头们——从谷歌到微软——正处于一种尴尬的境地。公开场合下,他们与华盛顿保持着恭敬的距离,唯恐成为下一个被推特(现为X)点名批评的对象。但在幕后,支持Anthropic的力量正在集结。这种支持并非完全出于同情,而是基于一种冷峻的商业逻辑:如果政府可以因为合同条款的不满就“封杀”一家拥有核心竞争力的初创公司,那么没有一家AI企业的资产负债表是安全的。

“硅谷大分裂”的阴影

这种政府与技术专家之间的对立,正在撕裂原本统一的技术阵线。Anthropic的支持者认为,强制降低AI的安全标准是极具风险的“饮鸩止渴”;而批评者则认为,Anthropic的执拗是在地缘政治竞争中自缚手脚。正如一些观察家所指出的,这种内部消耗最直接的受益者或许是太平洋对岸的竞争对手3。当美国的监管机构和先锋企业陷入内斗时,算法进化的脚步并不会因此减缓。

对于投资者而言,这一禁令重塑了风险评估模型。此前,获得政府合同被视为初创公司生存的“金牌”;而现在,它更像是一把达摩克利斯之剑。

  • 政治红利转瞬即逝:与特定政府深度绑定的合同可能在政权更迭或政策转向时瞬间清零。
  • “技术中立”的终结:AI企业必须在“合规的伦理”与“绝对的服从”之间做出抉择。
  • 资本市场的连锁反应:Anthropic的融资估值可能会因为失去联邦市场而面临重压,进而引发AI领域的投资寒冬。

谁将拥有未来的“解释权”?

这场争端的深远意义在于,它定义了AI时代的一个核心命题:谁拥有最终的解释权?是编写代码的工程师,还是掌握预算的将军?

目前看来,华盛顿更倾向于后者。然而,这种行政手段的强硬,可能掩盖了其在技术理解上的匮乏。AI模型不是可以随意拆卸的履带车,它的安全机制与其性能往往互为表里。如果特朗普政府成功将Anthropic边缘化,它可能会发现自己拥有的只是一个虽然听话、但在智能与安全性上大打折扣的“残次品”。在未来的数字战场上,这种“阉割版”的智能,恐怕难以支撑起其庞大的大国雄心。

引用


  1. 川普下场禁止政府使用Anthropic技术背后,控制AI的权力角逐和安全 ... · Justice Patch · (2026/2/28) · 检索日期2026/3/19 ↩︎

  2. 特朗普要联邦政府禁用Anthropic 为何与AI公司“开战”? · 文学城 · (2026/2/28) · 检索日期2026/3/19 ↩︎

  3. 特朗普要联邦政府禁用Anthropic,“中国乐坏了” · 观察者网 · 熊超然 (2026/2/27) · 检索日期2026/3/19 ↩︎