史上最惨“破防”?主打AI安全的Claude,竟然被美军拉去“突袭”了!

温故智新AIGC实验室

TL;DR:

那个口口声声说“AI要安全、拒绝暴力”的Claude,竟然帮着美军在委内瑞拉“搞事情”了。前脚刚立好“和平鸽”人设,后脚就被曝出参与了导致83人丧生的军事行动,Anthropic这回是真的尴尬到抠脚。

本以为AI模型还在卷写诗、卷代码、卷谁的逻辑更像人类,结果美军反手就是一个反转:AI已经开始卷实战了。

近日,《华尔街日报》投下一枚重磅炸弹:美军在针对委内瑞拉马杜罗的突袭行动中,竟然动用了Anthropic公司的明星模型——Claude。1 对,就是那个在官网上明文规定“禁止用于暴力、武器研发或监控”的、自诩为“最安全”的AI。

这波操作,直接让科技圈和伦理学界集体“炸麦”了。

现实版“天网”?Claude的秘密任务

事情是这样的:今年1月初,美军对委内瑞拉发动了一场堪比好莱坞大片的军事打击,强行控制了马杜罗及其妻子。根据委内瑞拉国防部的说法,这场行动伴随着对首都加拉加斯的大规模轰炸,造成了83人死亡。2

而Claude在这场血雨腥风中扮演了什么角色?虽然具体战术细节还锁在五角大楼的保险柜里,但知情人士透露,它是通过大数据巨头Palantir的“中间商赚差价”进入战场的。3 从汇总情报文件到甚至可能涉及自主无人机的操作,AI正在从幕后的“文职秘书”变成前线的“参谋长”。4

调侃点评: Claude:我当时害怕极了,我以为只是帮他们写个行动简报,结果他们带我去炸炸炸?

Anthropic的“人设崩塌”现场

这事儿最抓马(Drama)的地方在于,Anthropic一直以来都是AI界的“清流”代表。其创始人达里奥·阿莫代伊(Dario Amodei)曾多次在公开场合呼吁:AI太危险了,必须得有护栏!必须得加强监管!2

结果,自家产品却成了五角大楼的“秘密武器”。这感觉就像一个每天宣扬素食主义的博主,突然被发现在深夜偷偷啃全家桶。

面对质疑,Anthropic的发言人开启了标准的“外交辞令”模式:

“我们无法对具体行动发表评论……但任何使用都必须遵守我们的政策。” 2

翻译一下就是:“我知道你很急,但我现在只能表示我很急。”

这种尴尬不仅仅是公关层面的。据悉,Anthropic内部对五角大楼的使用方式极其不满,甚至已经闹到了可能导致一份价值2亿美元的政府合同告吹的地步。1 毕竟,对于一家以“安全”为卖点的公司来说,这波是真的“破防”了。

五角大楼:我们要的是战友,不是老师

不过,五角大楼那边显然不吃这一套。

现任国防部长赫塞斯在此前的一场活动中直接“开麦”硬刚,表示五角大楼不会使用那些**“不让你打仗的AI模型”**。2 在军方看来,如果AI在关键时刻因为“道德限制”而拒不执行任务,那和废铁有什么区别?

这场“技术圣母”与“钢铁直男”的对决,本质上是AI发展的一个十字路口:

  • 一边是理想主义: AI应该是人类文明的增量,不能异化为杀人工具。
  • 一边是现实主义: 科技竞争就是地缘政治的延伸,你不用,你的对手也会用。

下一个风口,是“战争AI”吗?

虽然Anthropic还在纠结伦理,但美军的AI化进程已经像脱缰的野马。除了Claude,Palantir等公司早已深耕此道,将AI与无人机、监控系统深度绑定。5

这次委内瑞拉行动只是冰山一角。它向世界宣告了一个残酷的现实:AI的“纯真时代”已经结束了。 当最先进的大语言模型被推向战场,它生成的不再是无害的文字,而是关乎生死的决策。

那么问题来了:如果未来的AI不仅能帮你写周报,还能决定导弹的飞行轨迹,你还敢跟它说“早安”吗?

引用


  1. US military used Anthropic’s AI model Claude in Venezuela raid, report says · The Guardian · (2026/02/14) · 检索日期2026/02/15 ↩︎ ↩︎

  2. “时机尴尬”!外媒爆“美对委军事行动使用AI模型Claude”,涉事美企回应 · 环球网 · (2026/02/14) · 检索日期2026/02/15 ↩︎ ↩︎ ↩︎ ↩︎

  3. 緝捕馬杜洛震驚全球 美軍傳動用AI工具Anthropic Claude · AASTOCKS · (2026/02/14) · 检索日期2026/02/15 ↩︎

  4. 生擒马杜罗传美军使用Claude 部署AI模型首次支援机密作战 · VanPeople · (2026/02/14) · 检索日期2026/02/15 ↩︎

  5. 天網近了?Claude傳被用於美軍抓馬杜洛秘密行動 創AI模型首例 · 聯合新聞網 · (2026/02/13) · 检索日期2026/02/15 ↩︎