TL;DR:
AI这波操作属实是“听我说谢谢你”。田纳西一位奶奶因为算法“脸盲”,硬生生在北达科他州蹲了半年大牢。这届AI不仅会画画写诗,还会随机挑选一位幸运路人送去监狱“进修”,算法偏见这块算是被玩明白了。
50 岁的田纳西州祖母安吉拉·利普斯(Angela Lipps)这辈子大概也没想到,自己从未踏足过的北达科他州,竟然会通过一种极其荒诞的方式——AI“指路”,成了她度过整整六个月时光的“伤心地”。
这事儿说起来简直比科幻片还离谱:法戈(Fargo)警方在调查一起组织严密的银行诈骗案时,大手一挥把监控截图丢给了人脸识别软件。AI 盯着照片一通“脑补”,最后指着远在千里之外、连北达科他州在哪儿都得查地图的利普斯说:“没错,就是她!”1 2
结果呢?这位无辜的祖母就这样开启了近半年的“铁窗生涯”。这哪是人工智能啊,这分明是“人工智障”在执法界跨界整活,直接给普通人送上了一套“冤狱大礼包”。
技术大揭秘:AI 为什么会“睁眼说瞎话”?
很多人觉得 AI 是冷酷客观的机器,绝对不会撒谎。但实际上,AI 就像是一个跟着偏心老师长大的孩子。如果训练它的数据里大部分都是白人面孔,它在识别有色人种或特定特征人群时,就会因为“见识少”而开始胡猜。3
“这就像是让一个只见过金毛的人去分辨两只不同的拉布拉多,在它眼里,反正长得都差不多。” —— 某不愿透露姓名的科技吐槽员。
除了数据偏见,执法部门对技术的“过度迷信”也是硬伤。在很多案例中,警方拿到 AI 提供的一个“相似度概率”,就如获至宝地当成了铁证。4 事实上,AI 人脸识别在低分辨率监控下,往往会通过“像素插值”来强行补全细节。这种“脑补”出来的图像,虽然看起来更清晰,但可能已经把受害者的鼻子修成了嫌疑人的形状。4
算法“盲盒”:你不是第一个,也不是最后一个
利普斯的遭遇并非孤例,AI 执法翻车的“名场面”早就排成队了:
- 罗伯特·威廉姆斯案:2020 年,底特律警方的人脸识别系统在大街上“盲抓”了罗伯特。尽管他有完美的不在场证明,还是被关了 30 多个小时,成了美国首个公开的 AI 误捕受害者。4
- 孕妇也难逃一劫:2023 年,密歇根州一名怀孕八个月的女子也被系统“误认”为盗窃犯。挺着大肚子被指控,这画面太美我不敢看。4
- COMPAS 评分迷思:不只是抓人,连判刑 AI 都要插一脚。著名的 COMPAS 系统曾被爆出对黑人被告的风险评估得分异常偏高,简直是把偏见写进了代码里。4
法庭对这类证据其实也开始心存芥蒂。在有些案件中,法院拒绝采纳 AI 增强后的视频,理由很简单:这种工具是在“添加和改变”材料,而不是在呈现真相。4 就像给证据加了一层“美颜滤镜”,滤镜背后的人是谁,全看算法的心情。
谁来给“数字枷锁”上把锁?
现在的矛盾点在于,执法部门追求高效,而 AI 刚好提供了一种看似高端的“快捷键”。但如果这个快捷键的代价是让一个从未出过远门的祖母坐半年牢,那这代价显然太沉重了。
利普斯现在正试图重建她的生活,但失去的半年时光和背负的心理创伤,显然不是一句“算法报错”就能弥补的。1 解决算法偏见,不仅需要更多样化的训练数据,更需要法律给这些“黑盒技术”划定红线。5
当正义被交给了一串存在缺陷的代码,我们每一个人都有可能成为下一个被 AI “随机选中”的幸运儿。毕竟,在算法眼中,我们可能都只是一串概率而已。
引用
-
Tennessee grandmother jailed after AI facial recognition error links her to fraud · The Guardian · (2026/3/12) · 检索日期2026/3/13 ↩︎ ↩︎
-
AI error jails innocent grandmother for months in Fargo case · InForum · (2026/3/12) · 检索日期2026/3/13 ↩︎
-
偏见、种族主义和谎言:直面人工智能负面后果 · UN News · (2021/1/20) · 检索日期2026/3/13 ↩︎
-
美国执法与法律系统中的AI浪潮:潜力、挑战与监管新进展深度解析 · Forward Pathway · (2024/0/0) · 检索日期2026/3/13 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
人脸识别AI的伦理:缓解偏见与保护隐私 · Didit · (2024/0/0) · 检索日期2026/3/13 ↩︎