TL;DR:
伊朗学校被炸,165条生命逝去,美军反手就是一个“AI误差”的锅甩了出去。但说到底,算法只是“打工人”,真正决定生死的那只手,依然躲在代码后面玩“隐身”。
最近,一则关于“AI误炸伊朗学校”的消息在科技圈和国际版面上炸开了锅。原本是一场惨绝人寰的人间悲剧——伊朗米纳卜市的一所女子学校遭到轰炸,至少165人遇难[^2]——结果到了责任认定时,人工智能(AI)却莫名其妙地成了那个最大的“背锅侠”。
甩锅现场:是AI“抽风”还是人类“隐身”?
在许多媒体的描述中,这次惨剧被归结为“AI目标识别系统的失误”[^3]。听听,这词儿取得多妙啊。仿佛在那枚导弹飞出挂架的一瞬间,是AI自己产生了意识,自己选好了坐标,然后自己按下了发射键。
但《卫报》刊登的一封读者来信却一针见血地撕开了这层遮羞布:把责任推给AI,本质上是在用技术语言玩“文字游戏”[^1]。
这种说法悄悄地把“人”这个主语从句子中抹去了。以前平民死亡叫“附带损害”,现在干脆成了“系统错误”。责任不再属于人,而属于冷冰冰的算法。[^1] —— 调侃点评:AI表示,我只是个写代码的,你们这群拿遥控器的才是真大佬。
这种“去人格化”的表达方式非常危险。它让原本应该承担道德和法律责任的决策者,通过把锅甩给算法,实现了一种精神上的“责任豁免”。
技术大揭秘:AI在战场上到底干了啥?
根据流出的情报,美军在这次行动中疑似调用了Anthropic公司的Claude AI来进行情报评估和目标识别[^4]。
你没听错,就是那个平时帮你写周报、润色简历的Claude。
在现代战争的逻辑里,AI被当作一个超级“漏斗”。它能在海量的卫星图像、监听数据和无人机监控中,快速筛选出所谓的“高价值目标”。美军甚至一度想问Anthropic要“无限制访问权”,结果被人家硬核拒绝了[^4]。
为什么拒绝?因为军事专家们心里很清楚:AI本质上是一个统计学概率模型,它在识别猫和狗时都会出错,更何况是在复杂的战场环境中识别平民和士兵? 当错误的情报叠加在不成熟的AI决策上,这场双重失误最终酿成了血淋淋的悲剧[^5]。
灵魂拷问:谁该为那个按下按钮的人买单?
面对175名遇难者(其中大多数是儿童)[^3],我们必须追问:如果系统报错了,那审核系统的专家在哪?签署命令的军官在哪?
- 设计系统的人:是否预见了算法在低分辨率或干扰情况下的误判?
- 授权决定的人:是否在收到“识别成功”的提示后,进行了必要的人工复核?
- 执行决策的人:是否在导弹落下的那一刻,依然盲目相信屏幕上的红点?
目前的军事AI伦理正处于一个尴尬的“无人区”。美以等国被质疑在攻打伊朗时滥用AI技术,导致人类正在失去对战争机器的控制[^1][^3]。如果所有的决策最终都变成了“算法推荐”,那战争将彻底沦为一场没有责任主体的屠杀。
未来预测:算法不该成为罪恶的“消音器”
AI不应该是逃避责任的避风港。无论技术链路多么复杂,指挥链条的末端依然应该是流淌着血液、拥有道德自觉的人类。
如果今天我们可以说“是AI炸了学校”,那么明天我们是不是也可以说“是算法决定了裁员”、“是模型拒绝了你的医保申请”?当“算法”成为一切错误的终极解释时,人类文明赖以生存的道德问责机制也就彻底崩塌了。
别让技术成了权力的“消音器”。AI可以帮我们算题、画图、写代码,但它绝不该、也不能替人类背负那沉重的杀戮罪责。