TL;DR:
AI也玩“连连看”?英国一小哥在家写代码,竟因人脸识别算法“间歇性瞎眼”被警察跨城逮捕。事实证明,AI对有色人种的偏见不仅没治好,还进化出了“跨越100英里抓错人”的离谱新技能。
在这个“万物皆可AI”的时代,我们本以为算法是冷酷无情的执行机器,没成想它也有“摸鱼挂机”的时候。26岁的软件工程师阿尔维·乔杜里(Alvi Choudhury)最近就亲身体验了一把什么叫“科技改变命运”——只不过是往坑里改的那种。
今年1月,这位小哥正窝在南安普顿的家里勤恳敲代码,突然间警铃大作。警察叔叔不仅送货上门,还贴心地送上了一副“银手镯”,理由竟然是他涉嫌在100英里外的一座城市犯下了入室盗窃罪。1
最离谱的是,乔杜里这辈子压根儿就没去过那个城市。
技术大揭秘:这届AI,可能该去挂个眼科
是什么让警察叔叔如此笃定?答案是遍布英国的人脸识别监控系统。
根据目前的“爆料”,这套号称精准的识别软件在人群中多看了乔杜里一眼,然后坚定地认为他就是监控视频里那个“看起来年轻了10岁”的窃贼。1 这种强行凑CP的行为,让作为同行(软件工程师)的乔杜里当场裂开。
这就是典型的算法偏见(Algorithmic Bias)。简单来说,由于训练AI的数据库里可能塞满了“白里透红”的样本,导致AI在面对非裔或亚裔面孔时,经常陷入“他们长得都一样”的逻辑死循环。2 3 这种“种族脸盲症”在实验室里是数据波动,在现实生活里就是长达10小时的非法拘留。
行业“地震”:谁在为“偏见”买单?
其实,这已经不是英国警方第一次在人脸识别上“精准踩雷”了。
- 官方实锤: 英国内政部之前委托国家物理实验室(NPL)做过测试,结果很扎心:在某些设定下,该技术把黑人和亚裔误认为嫌疑人的概率,显著高于白人。2 4
- 警察的迷之自信: 尽管数据在那儿摆着,警方依然对这项技术情有独钟。甚至有视频显示,警方在狂欢节期间大搞“扫脸”抓捕,还拍胸脯保证技术不存在偏见。5
- 全球连锁翻车: 这种事儿也不只在英国发生。在美国,罗伯特·威廉姆斯(Robert Williams)也曾因为人脸识别错误,成了全世界第一个已知的因AI误判被捕的倒霉蛋。3
这不仅仅是技术Bug,更是伦理灾难。当警方过度依赖那些还没学会“精准识人”的算法时,普通公民的自由就成了一场概率游戏。乔杜里现在正准备起诉泰晤士河谷警方,要求赔偿。毕竟,这10个小时的“局子体验卡”和被邻居围观的心理阴影,可不是一句“不好意思抓错了”就能抹平的。
未来预测:下一个“风口”是算法纠偏?
如果说AI的第一个十年是在比拼谁更聪明,那么下一个十年,可能要比拼谁更“公正”。
目前,全球范围内对于人脸识别技术的伦理争议已经进入白热化。如果不能解决针对特定族裔的高误报率,这项技术很可能从“治安利器”彻底沦为“歧视加速器”。3 4
正如网友调侃的那样:“如果算法连26岁和16岁都分不清,那它还是别出来维护治安了,去应聘‘找茬游戏’的初级玩家可能更合适。”
我们支持科技进步,但拒绝被粗糙的算法随便“贴标签”。毕竟,谁也不想在某个阳光明媚的下午,因为算法的一次“手抖”,就莫名其妙地在100英里外的案发现场“瞬移”出镜。
引用
-
Facial recognition error prompts police to arrest Asian man for burglary 100 miles away · The Guardian · (2026/2/25) · 检索日期2026/2/25 ↩︎ ↩︎
-
英国拟全面推广AI 人脸识别,但黑人、亚裔易被误报为涉案人员 · 凤凰网科技 · (2024/2/25) · 检索日期2026/2/25 ↩︎ ↩︎
-
人工智能的受害者:人脸识别技术扫描数百万驾照仍有无辜者被认错 · ABC News · (2023/11/3) · 检索日期2026/2/25 ↩︎ ↩︎ ↩︎
-
英国拟全面推广AI 人脸识别系统,但黑人、亚裔“极易”被误报为涉案人员 · IT之家 · (2024/2/25) · 检索日期2026/2/25 ↩︎ ↩︎
-
英国警方利用人脸识别技术在狂欢节中逮捕嫌犯,并称已经过测试 · Facebook · (2023/11/3) · 检索日期2026/2/25 ↩︎