挑食、种族歧视、冤假错案,“AI人脸识别”并非万金油

大家好,我是观察者网《科工力量》栏目主播,冬晓。人脸识别,作为AI领域最为广泛的应用,已经深入到我们的日常生活中。手机解锁、打卡上班,大家时不时的就得找AI刷个脸。使用AI技术对茫茫人海中的特定个人,进行精准识别,也成了公共安全领域的特殊法宝。讽刺的是,AI人脸识别并不像普通民众想得那么省心,甚至还差点酿成了冤假错案。本来让人省心的人脸识别,为什么这么闹心呢?

在大多数人的印象中,人脸识别技术流行起来也就是最近十年的事情。不过,它的历史,可比这十年长得多。上个世纪60年代,来自美国的计算机专家,就开始尝试用电磁脉冲测量人脸特征。并将这些特征转化成数据,录入电脑系统。可这些黑科技却没能转化成商业产品,为什么呢?因为这项技术是CIA赞助的,服务内容基本保密。除此之外,当时的系统运行速度慢,电脑实在不给力。这项技术就低调发育了几十年。

虽然发展低调,但是人脸技术的核心环节得到了传承,这就是人脸数据点。早期的人脸识别技术流程,就是录入特征数据后,对照已知图片的数据点。后来的人脸识别技术,核心目标就是补充更多的数据点,从70年代的21个特征点,增加到80年代的100多个。量变必然引发质变。人脸识别下一步该怎么走?那就要结合算法,成千上万张脸来回看。这就跟AI搭上了线。

上世纪90年代,我们节目的老常客,黑科技创造者美国国防高级研究计划局,拉上美国国家标准技术研究院 ,两家机构一起搞了个FERET项目,目的是研发人脸识别算法和数据库。人脸识别逐步走向了自动化。再到后来,各路技术巨头研究深度学习和神经网络,AI和算法自己发展出一套逻辑,能够主动进行人脸识别。

这些企业是怎么发展自己的人脸识别技术的呢?一方面靠技术推广,另一方面靠人海战术。技术推广这一块,谷歌和苹果做的比较主动,安卓系统在智能手机发展前期,就进行人脸识别的实验。最后做出了Trusted Face这种安全功能。苹果不甘示弱,自家终端推出了Face ID功能,让手机用户的脸,能够直接变成账号。至于人海战术嘛,就得问问机器人扎克伯格和他的Facebook了,他们的平台图片一天就达到上百万,庞大的基础数据支持下,就算喂也把AI喂出来了。

AI技术加持后的人脸识别,发展的成功吗?相当成功。根据NIST在2019年的报告原话,他们认为“人脸识别的准确性有了显著提高,这很大程度上是得益于卷积神经网络的出现”。通俗来说,现在的算法和AI模型,可以通过户外拍摄的照片,与数据库的正面人像进行对比。而十年前的人脸识别,还只能用正脸图片相互对照。

AI人脸识别,技术实力很强。可是技术先进不能当饭吃,现实生活中的AI识别,要求的是一对一的精准匹配。可技术实际应用,却经常打自己的脸。2019年,家住底特律的Robert Williams莫名其妙地被警察指控盗窃,在家人面前被抓了起来。

可是,他在案发时间,有着充足的不在场证明。一头雾水的他,交完保释金后,问警察抓自己的原因,结果警察理直气壮的表示,“电脑说你是,你就是”。这电脑分析,怎么跟现实情况冲突了呢?调取监控摄像才明白。监控现场的图像,比转发变绿的表情包还模糊。而且小偷全程没有抬头看监控,警方用稀里糊涂的AI判定,去抓人,自然没有好结果。

如果这个案例还不算离谱的话,那新泽西州的Nijeer Parks的经历才是真正的魔幻:警方依靠人脸识别,指控他偷酒店的糖果,还驾车逃逸,直接给他关了10天。然而,他根本不会开车,连驾照都没有。去警局还是听自己奶奶的话,让表哥开车送过去的。搞笑的是,当地警方还一直用AI识别技术向他施压,闹出乌龙之后表示,自己只有AI识别作为证据。

AI技术识别失误,是AI在搞种族歧视吗?当然不是。AI如果要做人脸识别的话,得用现场留下的照片,对照数据库的照片。数据库的照片,可以做到高清无码不带水印,可是现场照片做得到吗?肯定做不到啊。监控摄像头受限于使用条件,往往压缩视频图像。很多面部特征就被抹除了。

比如说人脸上的一个痦子,放到图片中,可能就只是一个小像素点。然而就是这么一个像素点,最后很可能导致警察抓错了人。这就是AI人脸识别面临的一个重大问题:大量的数据训练,并不代表AI就能适应复杂的现实环境。

从技术上来说,AI没有搞种族歧视。然而从技术应用上来说,AI确实是在搞种族歧视。前面提到一点,光是一个像素点,就可能导致警察抓错人。现实生活中,AI需要大量的数据,可是少数族裔人群样本少,没法提供大量的数据。这就导致AI对这些群体的误判,大幅增加。

根据前谷歌AI伦理科学家Timnit Gebru在2018年的论文,人脸识别针对黑人、女性的错误率高达 21%~35%,而针对白人、男性的错误率则低于 1%。你说你是亚裔?那你也别乐啊。你的误判概率也是白人的10倍。而且这些数据的来源,基本都是现实生活中AI实际应用的误判案例,几乎不存在选择数据的空间。本来服务社会的AI,最后搞成了技术压迫。未免也太讽刺了点。

AI人脸识别为什么会这么闹心呢?首先,要从AI识别的运行模式分析。AI的应用,主要还是依靠对大量案例特征的总结归纳,不管是机器学习、深度学习,还是神经网络。都离不开这个模式。这就导致了一个严重的问题:AI对某些数据和特征的分析,纯粹靠数量堆积。如果某些特殊情况的数据不够,AI对这些数据的识别分析,误差就会很大。

AI技术面临的群体,不可能每次都是大多数,总会有一些特殊的情况。如果训练的数据,比例不够均衡,挑食的AI就会给出有偏向性的结果。培训AI模型的时候,AI就像一个孩子,如果孩子的饮食天天大鱼大肉,那么孩子大概率就 会挑食。AI并没有主动挑起社会问题,但它却把社会问题放大了。

除此之外,机器学习的思维,跟传统的人类学习思维,是不一样的。这就导致了我们不能按照人类的常规认知思路,去归纳机器学习的问题。来自澳大利亚的一篇医学论文就指出,如果把大量特征接近的X光片,扔给AI学习,识别病例。AI在长时间对照分析之后,并不会选择按照疾病特征,选出可疑患者,而是按照X光片是否特殊,选择患者。完全不按照医学逻辑分析影像,却靠复制粘贴的模式“作弊”,反而漏掉了几张与常规图像接近的病变X光片。AI的思维模式,我们难以研究,但让AI达到人的判断标准,这个问题确实迫在眉睫。

作为一项便利、赚钱的技术,AI人脸识别已经成了AI商业化的万金油。可是,在这个技术频频出错的背后,人们才猛然发现,这项百试百灵的技术,没有他们预期的那么靠谱。AI人脸识别依赖大量的社会数据高速发展,这些数据背后的社会问题,又让AI识别吃了不少的亏。AI还在发展,留给我们的时间还很多。但在人类摸清AI的运行模式之前,AI怎么用这件事,估计还得商量着来。

今天这期,我们聊了聊AI的人脸识别,其实在上海的这边,有些小区都已经开始推行了,进出确实方便很多,但是有个问题,我并不是小区的常住居民,房子是租的。换了小区之后,我原本录入物业的人脸数据,是否会被删除呢?有人就问了,这些数据应该是保存在政府机构的,但问题是,换了物业之后,那为什么又要录一次呢?所以,在技术便利生活的同时,保障个人隐私也是刻不容缓的问题。

全部专栏