人在家中坐,锅从天上来:当AI“脸盲症”发作,亚裔程序员成了100英里外的窃贼

温故智新AIGC实验室

TL;DR:

AI也玩“连连看”?英国一小哥在家写代码,竟因人脸识别算法“间歇性瞎眼”被警察跨城逮捕。事实证明,AI对有色人种的偏见不仅没治好,还进化出了“跨越100英里抓错人”的离谱新技能。

在这个“万物皆可AI”的时代,我们本以为算法是冷酷无情的执行机器,没成想它也有“摸鱼挂机”的时候。26岁的软件工程师阿尔维·乔杜里(Alvi Choudhury)最近就亲身体验了一把什么叫“科技改变命运”——只不过是往坑里改的那种。

今年1月,这位小哥正窝在南安普顿的家里勤恳敲代码,突然间警铃大作。警察叔叔不仅送货上门,还贴心地送上了一副“银手镯”,理由竟然是他涉嫌在100英里外的一座城市犯下了入室盗窃罪。1

最离谱的是,乔杜里这辈子压根儿就没去过那个城市。

技术大揭秘:这届AI,可能该去挂个眼科

是什么让警察叔叔如此笃定?答案是遍布英国的人脸识别监控系统。

根据目前的“爆料”,这套号称精准的识别软件在人群中多看了乔杜里一眼,然后坚定地认为他就是监控视频里那个“看起来年轻了10岁”的窃贼。1 这种强行凑CP的行为,让作为同行(软件工程师)的乔杜里当场裂开。

这就是典型的算法偏见(Algorithmic Bias)。简单来说,由于训练AI的数据库里可能塞满了“白里透红”的样本,导致AI在面对非裔或亚裔面孔时,经常陷入“他们长得都一样”的逻辑死循环。2 3 这种“种族脸盲症”在实验室里是数据波动,在现实生活里就是长达10小时的非法拘留。

行业“地震”:谁在为“偏见”买单?

其实,这已经不是英国警方第一次在人脸识别上“精准踩雷”了。

  • 官方实锤: 英国内政部之前委托国家物理实验室(NPL)做过测试,结果很扎心:在某些设定下,该技术把黑人和亚裔误认为嫌疑人的概率,显著高于白人。2 4
  • 警察的迷之自信: 尽管数据在那儿摆着,警方依然对这项技术情有独钟。甚至有视频显示,警方在狂欢节期间大搞“扫脸”抓捕,还拍胸脯保证技术不存在偏见。5
  • 全球连锁翻车: 这种事儿也不只在英国发生。在美国,罗伯特·威廉姆斯(Robert Williams)也曾因为人脸识别错误,成了全世界第一个已知的因AI误判被捕的倒霉蛋。3

这不仅仅是技术Bug,更是伦理灾难。当警方过度依赖那些还没学会“精准识人”的算法时,普通公民的自由就成了一场概率游戏。乔杜里现在正准备起诉泰晤士河谷警方,要求赔偿。毕竟,这10个小时的“局子体验卡”和被邻居围观的心理阴影,可不是一句“不好意思抓错了”就能抹平的。

未来预测:下一个“风口”是算法纠偏?

如果说AI的第一个十年是在比拼谁更聪明,那么下一个十年,可能要比拼谁更“公正”。

目前,全球范围内对于人脸识别技术的伦理争议已经进入白热化。如果不能解决针对特定族裔的高误报率,这项技术很可能从“治安利器”彻底沦为“歧视加速器”。3 4

正如网友调侃的那样:“如果算法连26岁和16岁都分不清,那它还是别出来维护治安了,去应聘‘找茬游戏’的初级玩家可能更合适。”

我们支持科技进步,但拒绝被粗糙的算法随便“贴标签”。毕竟,谁也不想在某个阳光明媚的下午,因为算法的一次“手抖”,就莫名其妙地在100英里外的案发现场“瞬移”出镜。

引用