NIST基准测试显示面部识别技术仍难以识别黑脸

每隔几个月,美国国家标准技术研究院(NIST)都会发布针对公司,大学和独立实验室提交的面部识别算法进行的基准测试的结果。这些测试的一部分着重于人口统计性能-即,算法多久将一次黑人误认为白人,而将黑人误认为黑人等等。利益相关者很快说,算法在偏见方面一直在不断改进,但是VentureBeat分析揭示了一个不同的故事。实际上,我们的发现对面部识别算法在识别颜色的人方面变得越来越好这一观念提出了怀疑。

这不足为奇,因为许多研究表明面部识别算法很容易产生偏差。但是最新数据出炉之际,一些供应商正在努力扩大自己的市场份额,目的是通过强制实施面部识别系统的销售禁令来填补亚马逊,IBM,微软和其他公司留下的空白。今年夏天在底特律,城市分包商Rank One Computing开始针对隐私权拥护者和抗议者的异议向当地执法部门提供面部识别。去年11月,总部位于洛杉矶的TrueFace获得了在美国空军基地部署计算机视觉技术的合同。而这样的例子不胜枚举。

NIST基准测试显示面部识别技术仍难以识别黑脸

全行业趋势

NIST使用收集了17年的面部表情语料库来查找面部识别算法中的人口统计错误。具体来说,它衡量以下各项的费率:

白人被误认为黑人

白人被误认为是不同的白人

黑人被误认为白人

黑人被误认为是不同的黑人

白人妇女被误认为黑人妇女

白人妇女被误认为是不同的白人妇女

黑人妇女被误认为白人妇女

黑人妇女被误认为是不同的黑人妇女

NIST通过记录算法多久返回一次10,000张面部照片的错误率,来确定每个类别的错误率,也称为错误匹配率(FMR)。FMR为.0001意味着每1,000个错误的身份,而FMR为.1意味着每10个错误的身份。

为了了解FMR近年来是减少还是增加,我们绘制了具有商业部署的组织的算法的FMR(通过NIST进行测量),每个组织有两种算法。比较这两种算法的性能可以为我们提供随着时间推移而产生偏差的想法。

NIST的基准测试并未考虑供应商在部署算法之前所做的调整,有些供应商可能永远不会在商业上部署算法。由于提交给NIST的算法通常会针对最佳的整体准确性进行优化,因此它们也不一定代表面部识别系统在野外的表现。正如AI Now Institute在其最近的报告中指出的那样:尽管NIST基准之类的当前标准“是朝着正确的方向迈出的一步,但依靠它们来评估性能还为时过早……[因为那里]目前尚无标准规范可以记录并传达基准数据集的历史和局限性……因此无法确定其对特定系统的适用性或给定上下文的适用性。”

不过,NIST基准也许是该行业最能客观衡量面部识别偏差的指标。

排名第一的计算

排名第一的人脸识别软件目前正由底特律警察局(DPD)使用,在2019年11月至2020年7月的所有人口类别中均得到改善,尤其是在被误认的黑人女性人数方面。但是,其最新算法的FMR仍然很高。NIST报告说,Rank One的软件在1,000中将黑人男性误识别为1至2倍,在1000中将黑人女性误识别为2至3倍。考虑到底特律超过400万居民中约有340万是黑人(根据2018年的人口普查),该错误率可能会转化为大量数字。

也许可以预见,Rank One的算法牵涉到一次错误逮捕,一些出版物错误地将其归类为美国的此类出版物(在备受批评的风暴之后,Rank One表示将为滥用滥用行为添加“合法手段”,DPD承诺将面部识别限制为暴力犯罪和家庭入侵。)在逮捕的情况下,DPD违反了自己的程序规则,这限制了使用该系统来领导线索。但是DPD的透明度报告中有偏颇的证据,该报告表明,迄今为止,底特律警察通过Rank One软件运行的几乎所有照片(98张照片中的96张)都是黑人嫌疑犯。

底特律与Rank One算法的转售商DataWorks Plus签订的为期三年,价值100万美元的面部识别技术合同于7月24日到期。但是DataWorks去年同意将其服务合同延长至9月30日。除此之外,没有什么阻止该市IT的发展部门永久维护软件本身。

TrueFace

TrueFace的技术将于明年年初开始为美国空军基地的面部识别和武器识别系统提供动力,在识别黑人女性方面从2019年10月至2020年7月变得更加糟糕。该算法的最新版本的FMR为0.015至0.020与先前版本的FMR(介于0.010和0.015之间)相比,误认了黑人女性。美国空军人事中心的统计数据显示,截至2020年1月,已有超过49,200名黑人服务人员入伍。

RealNetworks和AnyVision

同样令人不安的是RealNetworks和AnyVision的算法结果,据称是西岸以色列军队检查站的供应商。

AnyVision最近从未公开的投资者那里筹集了4300万美元,他告诉《连线》,其面部识别软件已经在全球数百个站点进行了试点,包括位于俄克拉荷马州普特南县和德克萨斯州德克萨斯市的学校。RealNetworks通过名为SAFR的子公司为军用无人机和人体摄像机提供面部识别。在2018年佛罗里达州帕克兰市的学校枪击事件发生后,SAFR向美国和加拿大各地的学校免费提供了面部识别技术。

虽然AnyVision和RealNetworks的算法比以前错误地识别出了更少的黑人女性,但在黑人男性中表现较差。关于其他人群,与FMR相比,它们几乎没有改善。

NtechLab

NtechLab的算法在FMR中表现出可比的回归。该公司因一款允许用户将人脸图片匹配到俄罗斯社交网络的应用而声名狼藉,最近获得了一项320万美元的合同,将其面部识别工具部署到整个莫斯科。NtechLab在圣彼得堡和拉脱维亚的尤尔马拉也有合同。

虽然该公司最新的算法可以降低白人和白人的FMR,但黑人的表现要比其前任者差。该类别的FMR接近0.005,高于2019年6月的0.0025。

大猩猩技术

另一个竞争者是大猩猩技术公司,该公司声称已在台湾监狱中安装了面部识别技术。NIST的数据显示,该公司的算法在识别黑人和男子方面变得越来越差。最新版本的Gorilla算法的FMR分数在错误识别黑人妇女方面的得分在0.004至0.005之间,而在FMR得分在错误识别白人妇女方面的得分在0.001至0.002之间。

危险应用

这些只是面部识别算法的一些示例,至少根据NIST数据,其偏差随着时间的推移而加剧了。趋势指出了缓解AI系统(尤其是计算机视觉系统)中的偏差的棘手问题。面部识别中的一个问题是用于训练算法的数据集偏向白人和男性。IBM发现,在学术研究中被最广泛引用的三个面部图像集中,有81%的人皮肤颜色较浅。学者发现,照相技术也可以使皮肤更亮,包括从棕褐色胶卷到低对比度数码相机的一切。

该算法也经常在该领域中被滥用,这往往会放大其潜在偏差。一个报告从乔治敦法律的中心隐私权和技术细节警方如何养活面部识别软件缺陷的数据,包括复合草图和谁分享与犯罪嫌疑人身体特征名人的照片。据报道,纽约警察局和其他部门使用模糊效果和3D建模器编辑照片,使它们更有利于算法人脸搜索。

无论造成这种偏见的原因是什么,越来越多的城市和州都对面部识别技术表示了担忧,尤其是在没有联邦准则的情况下。奥克兰和加利福尼亚的旧金山;俄勒冈州波特兰;马萨诸塞州萨默维尔市和马萨诸塞州都禁止执法人员使用面部识别技术。在伊利诺伊州,公司必须在收集包括面部图像在内的生物特征信息之前获得同意。在马萨诸塞州,立法者正在考虑暂停政府对该州任何生物识别监视系统的使用。

国会也提出了一项法案,即《 2020年面部识别和生物识别技术暂停法案》,该法案将严格限制联邦政府官员使用面部识别系统。该法案的出台是在欧盟委员会考虑在公共场所暂停面部识别五年后进行的。

“面部识别是监视的独特危险形式。这不仅仅是未来的奥威尔式技术,它现在正在全国各地的执法机构中使用,并且现在正在对社区造成伤害。立法。“面部识别是专制的完美技术。它在我们种族歧视深远的刑事司法系统中自动执行歧视性警务。该立法有效地禁止了美国执法人员使用面部识别。这正是我们现在所需要的。我们对此法案表示完全赞同。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除。