TL;DR:
奥特曼承认OpenAI管不住五角大楼的“骚操作”,比起Anthropic宁为玉碎的硬刚,OpenAI选择了“打入敌人内部”的现实主义。简单来说:代码已经上交,至于兵哥哥想按哪个键,那是人家的“主权”问题。
如果你还觉得硅谷那群极客在坚持“AI不作恶”的纯情戏码,那这周的新闻可能会让你CPU烧掉。
OpenAI的CEO萨姆·奥特曼(Sam Altman)最近在内部全员会上,用一种极其冷静——甚至带点“渣男”逻辑——的口吻告诉员工:“你们拿不到操作决定权。” 1 换句话说,OpenAI已经把最强的语言模型塞进了五角大楼的机密网络,但至于美军是拿它写周报,还是在地图上圈定打击目标,OpenAI其实并没有“一票否决权”。
这一出“卑微乙方”的戏码,不仅撕碎了硅谷最后的伦理幻觉,也宣告了一个新纪元的到来:AI,正式成为战争机器的硅基大脑。
硅谷“修罗场”:硬刚的被拉黑,圆滑的签了大单
这件事最精彩的部分在于它的“对比度”。
就在奥特曼签下大单的同时,硅谷另一家号称“安全第一”的公司 Anthropic 刚刚体验了什么叫“社会毒打”。其 CEO 达里奥·阿莫代(Dario Amodei)坚决要求在合同里写死:不准用我们的 Claude 搞大规模监控,不准搞自主武器。
结果呢?五角大楼在周五下午 5:01 准时发了个“最后通牒”:不签就滚,顺便把你拉进“供应链风险”黑名单。2
调侃点评:这就好比你卖菜给食堂,非要规定人家不能炒辣,结果食堂大妈直接让你带着你的青椒去流浪。
反观奥特曼,这位“现实主义大师”深谙商业博弈的精髓。他没有选择在条款上死磕,而是提出了一套叫 “Safety Stack”(安全堆栈) 的方案。3 OpenAI 不在合同里当教导主任,而是派驻持有安全许可证的研究员,“深嵌”进军方内部,试图通过技术监控而非法律条款来影响 AI 的使用。
这种“我把自己的人塞进去,比写一百页协议都管用”的策略,显然更对五角大楼的胃口。毕竟,谁能拒绝一个懂事、能打、还不爱说教的超级军师呢?
技术大揭秘:当 AI 缩短了“杀伤链”
为什么五角大楼对这些大模型这么上头?
别以为将军们只是想用 ChatGPT 写写演讲稿。在现代战争中,有一个核心逻辑叫 OODA 循环(观察-判断-决策-行动)。以前这个循环是以小时计,但在 AI 的加持下,这个过程正在被压缩到秒级。
- 实时情报洗稿:海量的卫星图像、监听音频、开源情报,靠人眼看会累死,靠 AI 扫一眼就能锁定高价值目标。
- 数字孪生推演:利用像 Claude 或 GPT-4 这种具备强大逻辑推理能力的模型,军方可以模拟成千上万种战术预案。
- 杀伤链的“硅基润滑剂”:Palantir 等公司已经在俄乌战场证明了,算法锁定的目标,无人机下一秒就能跟上。2
但这里有个极其恐怖的隐患——算法幻觉。如果 AI 在关键时刻“一本正经地胡说八道”,把一家医院误认成了导弹发射井,而在极速运转的自动化系统里,人类指挥官往往只是那个负责盖章的“橡皮图章”,后果不堪设想。
未来预测:人类正在拔掉最后一个刹车?
现在的硅谷,曾经的“极客乌托邦”早已让位于“技术加速主义”(e/acc)。在马斯克、彼得·蒂尔等大佬看来,AI 监管就是自我阉割,唯有跑得比对手快,才是最大的安全。2
这种思潮直接催生了耗资 5000 亿美元的 “星际之门”(Stargate) 计划。2 巨大的智算中心正在拔地而起,它们消耗的水电资源甚至让普通公民的账单飞涨。但这台庞大的机器已经停不不下来了,因为它背后的买单者是军工复合体。
正如 1990 年电影《猎杀红色十月》里的情节:为了获得优势而解除安全装置,最终可能导致鱼雷回头摧毁发射者自己。
当奥特曼承认“管不住”五角大楼的时候,他其实也侧面承认了:AI 的安全插销,正在一个接一个地被拔掉。在这个由冰冷逻辑、战争预算和极限算力主宰的陌生纪元里,人类的战车正驶向一个没有刹车的下坡路。
至于终点在哪?也许只有那个正在机密网络里运行的 AI 才知道了。
引用
-
Sam Altman admits OpenAI can’t control Pentagon’s use of AI · The Guardian · (2026/3/4) · 检索日期2026/3/5 ↩︎
-
算法参战:硅谷最后的良心,倒在周五下午5点01分 · 澎湃新闻 · (2026/2/28) · 检索日期2026/3/5 ↩︎ ↩︎ ↩︎ ↩︎
-
Sam Altman的二十四小时:五角大楼说了两次「不」 · BlockBeats · (2026/2/28) · 检索日期2026/3/5 ↩︎