欢迎关注“创事记”的微信订阅号:sinachuangshiji
文/木子Yanni
来源:浅黑科技(ID:qianheikeji)
技术不懂什么是种族偏见,人脸识别却一再翻车。
从良民到罪犯,有时候就是这么简单。
(一)荒唐树上荒唐果,荒唐树下黑小伙
没有驾照,就不能开车抢劫?FBI 第一个站出来反驳。
2019 年 1 月的一个周六,两名警察来到一家酒店。几十分钟前,他们接到报警,说有一名黑人男子在礼品店里偷吃零食,被店员逮了个正着,你们赶紧来看看呀。
警察到时,被抓住的黑人男子已被带到酒店办公室,此人身高约 6 英尺,身穿黑色夹克,与肤色几乎融为一体。
事不宜迟,FBI 立马掏出小本本,盘问起事情经过,黑人男子非常配合,一开口就是道歉,说会把吃掉的零食钱补上,还主动把自己的驾照递给了 FBI。
两名警察一看,诶,这小伙挺懂事儿,其中一名警察伸手接过驾照,瞥见姓名一栏印着 Jamal Owens,另一名警察则开始搜身。
几乎是同一时间,两名警察都皱起眉头:一人察觉到驾照有异样,怀疑是个山寨货;另一人则在黑人男子的口袋里,摸到了一袋高度疑似大麻的东西。
俩人警觉起来,顺势做出掏手铐的动作,就在此刻,刚刚还满口骚瑞的黑人男子,撒丫子就朝酒店门口狂奔,并迅速钻进一辆车里,疯了似的猛踩油门,哪怕撞上了停在不远处的警车,也只有三秒钟的减速,很快就消失在了街道尽头。
尽管犯人在眼皮子底下溜走了,但往好处想,毕竟他的假驾照还在手里,顺藤摸瓜,绝对跑不了。
两名警察迅速返回警局,把假驾照上的照片发给了拥有人脸识别技术的州政府机构。
第二天,匹配就有了结果:照片比中了家住 30 英里外的一名黑人男子。资料显示,此人名叫帕克斯,在一家杂货店工作。(为产生误会,补充一句,帕克斯曾有前科,所以系统中留有照片)
谨慎起见,警员先把帕克斯的身份证和那本假驾照做了比对,认为是同一个人,又核对了一遍假驾照,确定照片上这个男子,就是当天逃跑的那个人。
双重确认后,FBI 立即签发了对帕克斯的逮捕令,罪名有盗窃商店、伪造政府文件、拒捕等。
根据现有资料,警方突袭了几个可能的地址,却都没有找到帕克斯,反而是帕克斯本人在跟祖母聊天时,无意中听说警察在逮捕自己,坚信这是个误会的帕克斯,赶忙给表哥打了个电话,表哥一听,不敢耽误,迅速开车把帕克斯送到了警局。
帕克斯本来是去澄清的,谁知警察不由分说,直接手铐伺候,还安排了好几个警察同时审讯。
FBI:你自己干过什么,心里很清楚吧?
帕克斯:我冤枉,那人真不是我,我压根儿不会开车,今天还是我哥送我来的呢~
FBI:都到这儿了,你还装!我看你挺会开车~
帕克斯:嗯?我希望你搞清楚一点,不是所有的黑人都长得一样。
FBI:还敢猖狂,来人,关起来。
被关押了 10 天后,帕克斯终于获准保释,随后,他走上了长达一年的诉讼之路。
说到被人脸识别误抓,帕克斯可不是唯一一个。
2020 年初,威廉姆斯正坐在办公室里工作,突然,桌上的电话铃声大作,威廉姆斯接起电话,还没开口,对方先自报家门,称自己是底特律警察局,还说已经拿到威廉姆斯犯事儿的证据了,识相的话,赶紧去警局自首。
骗子真多!威廉姆斯挂了电话,继续工作。
一小时后,威廉姆斯刚把车开进自家车道,一辆警车就冒了出来,两名警察走下车,把一张纸举到威廉姆斯面前,上面印着一张照片,还有几个格外扎眼的词:“重罪逮捕令”,“盗窃罪”。
随后,当着威廉姆斯妻子和两个女儿的面,FBI 用手铐带走了他。
在审讯室里,FBI 举着三张照片,两张是被盗商店的监控照片,另一张是威廉姆斯的驾照照片,不厌其烦地引导威廉姆斯,希望他赶紧承认是自己盗窃了价值数千美元的钟表。
和上个故事中的帕克斯一样,威廉姆斯也发出了同样的灵魂拷问:
警官,你是不是认为所有的黑人都长一个样?
拒不招认的威廉姆斯,在被拘留了 30 个小时后,终于等到了一句答复:
不好意思,我猜是电脑搞错了。
与这两次误捕相比,奥利弗的遭遇更加心塞。
奥利弗也是被人脸识别系统比中,被指控把手伸进一台车里,从一位老师手里抢走了手机。
案发当时,这位老师看到学生在打群架,赶紧掏出手机录像,还没录多久,一个黑人男子就突然出现在车窗外,凶神恶煞地抢走了手机。
审讯室里,当 FBI 把照片摆成一排,准备开启讲道理模式时,奥利弗实在没忍住:我的胳膊上有陈年酿造的文身,你们再看看嫌疑人,胳膊上空空如也,我们怎么能是同一个人呢?
嘿,原来又是误会。
荒唐树上荒唐果,荒唐树下,尽是美国黑小伙儿。
(二)谁蒙蔽了人脸识别的眼睛?
人脸识别频频认错人,是技术的沦丧,还是“机”性的扭曲?欢迎收看本期真相揭露:人脸识别之深肤色尴尬了。
2018 年,美国《纽约时报》发表过一篇文章,引用美国麻省理工学院的最新研究论文,证实在不同种族面前,人脸识别的准确率存在巨大差异。
研究员创建了一个包含 1270 张面孔的数据集,包括以深肤色为主的 3 个非洲国家,以及浅肤色的 3 个北欧国家,并找来三款主流的人脸识别系统进行测试。
结果显示:白人的识别错误率最低,仅为 1%,肤色越暗,错误率越高。这其中,又以黑人女性的错误率最高,达到 35%。
人脸识别难道成精了,深谙漂亮国那套歧视法则吗?又或者,背后有其他原因?
我们都知道,人脸识别技术依赖于深度学习,用来训练的数据集越大,样本类型越平均,效果也就越好,再配上一套优质算法,搭一个传感器,人脸识别就可以上岗就业了。
在这个过程中,数据集、算法和传感器都是关键,那么,问题到底出在哪一环中呢?
1、缺失的数据集。
早期,研究人员要想得到人脸照片,唯一的方式就是购买:贴出广告,吸引有意向的人来到实验室,在签署同意书后,让这些人在不同的光线下,用不同的姿势拍照,以此作为训练 AI 的样本。
这种方式创建出的数据集,照片质量高,样本分布均衡,只有一个缺点:费钱。
到了互联网时代,一种又快又不用花钱的照片获取方式出现了:网络搜索下载。铺天盖地的新闻图片,抓来就能训练。
白嫖来的样本,自然比不上付费的,别的不说,光样本数据量分布就不达标。
在美国,有超过 40% 的成年公民,主要通过 Facebook 来看新闻,有媒体对新闻配图按性别进行了统计,惊讶的发现,不管是经济还是娱乐版块,女性的出场率都远远低于男性,哪怕都是单人新闻图片,女性形象在图片中的占比,也处于劣势。
但在现实中,美国的男女比例是大致均衡的。
目前来看,单就网络上展示的性别比例,女性就已经输了,那肤色比例是否平均呢?
来自麻省理工学院媒体实验室的研究人员乔伊·博拉姆维尼,曾公开分享经历,说自己在很多场景下,只有戴一个白色面具,才能被人脸识别传感器看到。
乔伊和同事们发现,人脸识别存在严重的性别偏见:最糟糕的情况下,深色女性面孔的失败率超过三分之一,相比之下,白人男性却有机会获得低至 0% 的错误率。
为了寻找造成这种性能差异的原因,乔伊研究了两个常用的面部数据库,最终发现,这两个数据集中,浅色皮肤占据绝大多数,导致样本数据的不平衡,并最终导致了识别错误率的差别。
为了抵抗数据集中存在的歧视,她发起了一个叫做“性别阴影” (Gender Shades) 的项目,重点强调交叉性:数据集应该兼顾四个类型,包括深肤色男 / 女性,以及浅肤色男 / 女性。
2、一再失误的算法。
2015 年,美国发生了一件“震惊三连”的事情。
黑人小哥 Jacky Alciné 闲来无事,把一些照片上传到了谷歌相册,没想到,Google 的图像识别算法在对照片进行分类的时候,竟然把他的黑人朋友认成了大猩猩。
震惊之余,Jacky Alciné 第一时间向 Google 投诉,而 Google 听说这一事件后,同样表现的很震惊,马上向 Jacky Alciné 道歉,并承诺立刻整改。
魔幻并没有停在这里。
两年半之后,《连线》杂志震惊的发现,谷歌整改的方式竟然是:在图像识别算法中,删掉了“大猩猩 gorilla”这一类别。这意味着,不会再有黑人被识别成大猩猩,因为算法已经彻底不认识大猩猩了。
这件事爆出后,Google 承认,在图片识别标签中,他们确实删掉了“大猩猩”,给出的解释是:“图片标签技术仍处于早期,很不幸,它离完美还差得远。”
这、说什么好呢?我猜谷歌的人脸识别算法人员,应该都是白色程序猿,他们不会经历这样的事情,也没想到会有这样的事情,他们也很懵圈。
现实中,深肤色人的面部特性确实比较难找,尤其在暗光环境下,光是检测到脸就很难了,更别提捕捉面部特征,这对于算法确实是一大挑战。
在样本数据不足的情况下,人脸识别算法一般的做法,是根据特定的面部特征,比如眼距、肤色等,开启预测模式,但算法预测所依赖的面部特征,本身就不准确,势必会导致识别失误,比如把深色皮肤的女性识别成男性,或者把良民识别成罪犯。
对算法来说,深肤色面部检测虽然是挑战,但也不是不能优化,关键在于是否利益相关。
以上虽为个人猜测,但是,我也找到了一点论据支撑。
很多互联网公司都有招聘算法,以亚马逊为例:如果一个男性是能力匹配的基准线,那么,女性申请者和她们的属性就会对应降级,再加上众所周知的历史传统,在实际操作中,肤色同样是职位考量的因素之一。
这不禁让我想到小说《心是孤独的猎手》中的一句话:对黑人来说,所有白人长得都差不多,但黑人会费心辨认他们。另一方面,对白人来说,所有黑人长得都差不多,但白人通常不会费心记住一张黑人的脸。
职位人选的底色,不仅会影响到某个算法的开发和执行,还会深刻影响整个领域的多样性,具象到现实,一定会出现深肤色人群被误认成大猩猩这样的闹剧,以及忽略算法优化、只是删掉大猩猩分类的神操作。
3、选择性失明的传感器。
如果说眼睛是心灵的窗户,那有些传感器的心是真的不灵。
2009 年,德克萨斯州,在一家露营商店工作的两位工人,正在电脑上测试惠普新出的面部自动跟踪系统,并用视频记录下了整个过程。
在视频中,他们自称黑人德西和白人旺达。
黑人德西说:“看看我进入画面时会发生什么。”尴尬的是,什么都没有发生,摄像头完全追踪不到德西的脸。
但是,当白人旺达的脸出现在摄像头面前时,面部追踪系统就开始工作了。
此外,一位用户名叫做 Teej Meister 的油管用户,也曾吐槽一个感应洗手池:“白人专用?”
你瞧,在人脸识别的传感器环节,社会责任感同样处于缺失状态。
面对充满缺陷和偏见的人脸识别系统,很多国家的研究机构都在呼吁:“必须立即停止使用这项反乌托邦技术”。
如潮的舆论下,旧金山跑的最快,成为美国第一个禁止所有警察和城市机构使用面部识别技术的城市,它后面跟着一系列准备效仿、以及还在观望的城市。
(三) 被误抓的黑人小哥,竟击中社会 G 点?
20 世纪 40 年代,乔治·奥威尔创作了一部反乌托邦小说《1984》,勾勒了一副令人窒息、压抑的画面:
未来的一大景象,是公民处于无处不在的严密监视下,为了躲避“老大哥”的监视,公民不得不秘密找到一个黑暗房间,通过在对方手臂上敲击密码来互相交流。
如今,“老大哥”已经成为滥用政府权力的代名词,人脸识别技术就是一个重要工具:你以为老大哥看着你?它只是看错了你。
小说只是艺术创作,但历史的车轮滚滚向前,黑人却始终站在话语权的边缘。
18 世纪,纽约曾施行一套法律:灯笼法 (LanternLaws)。
灯笼法规定,日落之后,黑人、混血儿和土著奴隶要想在城市里走动,如果身边没有白人,就必须携带一个蜡烛灯笼。如果不这样做,一经发现,就会被抓进监狱,直到“主人”来认领,而在等待期间,他们可能会经历殴打等各种遭遇。
同一个城市的灯笼,并没有平等照亮每个人的权利,光是一种偏见,社会没有看见。
2019 年,28 岁的伦敦黑人男子巴达,正在通过网站更新护照,一个重要步骤是上传照片。
巴达上传了一张提前准备好的高清照片,以为很快就可以完成更新流程,没想到,人脸识别系统竟弹出了一个令人哭笑不得的提示:不能上传张嘴照。
网站对照片有严格规定,比如不能张嘴,不能闭眼,不能做鬼脸等,这些巴达早就知道,只是没想到,人脸识别系统竟“严格”到如此不讲道理的地步。
重试 N 多次,系统始终提示照片张嘴无效,无奈之下,巴达只能在备注中写道:“我的嘴是闭着的,我只是嘴唇很厚。”
同一个国家的业务平台,并没有公平对待每个人的权利,算法是一种偏见,社会没有看见。
直到几位黑人小哥被警局误抓,才终于击中了社会 G 点,这种来源于种族歧视和隐私信息滥用的双重愤怒,让社会不得不看见。
蹲在警局里的黑人小哥挥挥翅膀,改变了不少风向。
多地政府呼吁停止警局使用人脸识别技术,并发布了反面部识别条例;不少硬件厂商也开始有所动作,警用执法记录仪制造商 Axon 发声称,自家制造的摄像头产品将不具备面部识别功能;各大技术公司也开始变得谨慎,比如微软悄悄删除了据说是全球最大的公开人脸识别数据库 MS Celeb,蓝色巨人 IBM 更是高调宣布,不再提供任何人脸识别服务和人脸分析软件,完全退出这一市场。
看似一切都在改变,不过有趣的是:狡兔还有三窟,偏见又怎会把自己封在条框里?只要人心里有它的位置,它便能永生。
参考资料:
1、https://abc7news.com/criminal-facial-recognition-racial-bias-in-technology-man-falsely-arrested-nijeer-parks/9197215/
2、https://abcnews.go.com/Business/federal-study-finds-racial-bias-facial-recognition-tech/story?id=67853261
3、https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html
4、https://www.freep.com/story/news/local/michigan/detroit/2020/07/10/facial-recognition-detroit-michael-oliver-robert-williams/5392166002/
5、https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html?auth=login-google
6、http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
7、https://www.media.mit.edu/projects/gender-shades/overview/
(声明:本文仅代表作者观点,不代表新浪网立场。)