使用人工智能的_人工智能种族偏见是否被抑制 我们是否过早使用面部识别技术

照片来自互联网

人工智能( AI )和机器学习被用于推动各种重要的现代软件技术的发展。 例如,人工智能为分析软件、谷歌bugspot工具和程序员的代码编译器提供了强大的功能。 AI还支持执法人员、户主和个人居民常用的面部识别软件。

在基于人工智能的软件的所有用途中脸部识别是很重要的。 依靠视频监控的大型建筑安全团队(如学校和机场)可以从这项技术中获益。 AI算法可能检测出财产上已知的罪犯和非法者。 有些系统可以识别枪支,有些系统可以跟踪任何人的运动,有些系统只需单击即可实时更新其位置。

人脸识别软件具有惊人的潜力

美国警察使用脸部识别软件成功地识别了大规模的枪击嫌疑犯。 印度新德里警察利用这项技术,在4天之内确定了约3000名失踪儿童。 人工智能驱动的软件扫描了住在孤儿院和寄养家庭的孩子的45000张照片,将2930名孩子与政府的迷路孩子数据库的照片进行了对照。 这是一个令人印象深刻的成功率。

政府还利用脸部识别软件帮助难民在名为REFUNITE的在线数据库中找到家人。 此数据库合并来自多个代理的数据,使用户能够执行自己的搜索。

尽管潜力很大,基于AI的软件还是有偏见

人脸识别软件因为AI算法比人眼更正确,所以提高了公共安全性。 但只有在你是白人男人的情况下,才是对的。 其实人工智能算法对暗肤的女性和女性有隐性偏见。 这个偏差存在于脸部识别软件和风险评价软件这两种主要类型的软件中。

例如,麻省理工大学媒体实验室的研究人员在某个实验中使用了脸部识别软件,在这个实验中,最多可以将35%的深皮肤女性识别为男性。 女性和深肤色的人错误率最高。

风险评估还有另一种偏见。 有些监狱使用计算机程序来预测未来每个犯人的犯罪可能性。 不幸的是,时间表明这些评价偏向皮肤黝黑的人。 皮肤发黑的人通常被认为更高。 问题是,当一个人横穿刑事司法系统时,当局使用风险评估分数为决策提供依据。 法官总是用这些分数来决定保证金的金额和一个人是否应该假释。

2014年,美国司法部长埃里克·霍尔特呼吁美国裁决委员会考虑使用风险评估分数,因为他们可能存在偏见。 该委员会决定不讨论风险得分。 但是,ProPublica这个独立的非营利性报道机构研究了分数,发现在预测暴力犯罪方面非常不可靠。 他们在佛罗里达州布朗县( Broward County )进行了超过7000人的调查,结果预计犯下暴力罪行的人只有20%。

这种偏见已经为人所知,但专家们还没有找到解决的办法。 如果政府和警察还没有使用这项技术,人们就不会对错误率感到惊讶。

美国公民自由联盟认为警察使用的人脸识别软件有偏见

2018年,美国公民自由联盟( ACLU )进行了调查警察使用的亚马逊脸部识别软件是否有人种偏见的测试。 结果:包括加利福尼亚州代表和哈佛出身的吉米·戈麦斯在内的28名美国国会议员错误地与枪击事件一致。 ACLU测试显示,40%的失配与有色人种有关。

尽管错误率很高,警察还是使用了亚马逊的脸部识别工具( Rekognition )。 市民自由组织和立法者非常担心如果原封不动地使用这个软件,可能会损害少数群体。 极端主义者因为软件过时了,呼吁政府监督来防止滥用。

照片来自互联网

政府是否控制AI的种族偏见?

连续两年,加拿大移民当局拒绝了约20名希望参加人工智能重大会议的AI学术学者的签证。 AI组的研究人员布莱克( Black in AI )打算向人们宣传AI的种族偏见,但在2018年和2019年被拒绝签证。 对政府施加压力后,否认2019年扭曲。

加拿大政府拒绝签证,主张研究者不能保证访问结束后离开加拿大。 该组织及其多数支持者认为拒绝签证是不合法的。 加拿大经济通常从海外游客那里获利,2018年的消费超过了210亿美元。 加拿大为什么要连续两年拒绝多次签证,除非研究人员试图表达自己的担心?

没有直接证据,但总体情况奇怪,值得深入研究。

AI为什么要努力识别肤色黝黑的女人和普通女人?

在人工智能驱动的软件中,长年存在对女性和有色人种的性偏见,甚至在脸部识别成为主流之前。 由于颜色对比度不足,黑暗的皮肤使计算机算法难以识别脸部特征是有道理的。 为了训练AI系统的照片中,比起黑皮肤的女性,有可能含有更多的白皮肤的男性。 两个因素都可能引起这个问题。

女性为了遮住皱纹和短发而化妆的话,电脑可能很难识别脸的特征。 人工智能驱动的算法只能训练识别模式。 短发作为代表男性的要素登录的话,结果会变形。

尽管问题很清楚,但是在脸部认识批评家中,也有人没有说明看起来存在人种和性别偏见而不是脸部认识的要素。 这两个术语可互换,但是是不同的过程。

照片来自互联网

人脸识别与人脸分析

麻省理工学院使用微软和IBM的脸部识别工具进行研究,发现这些工具的错误率比亚马逊的Rekognition低。 作为回答,亚马逊对麻省理工大学的研究结果提出异议,研究人员主张使用“脸部分析”而不是“脸部识别”来测试偏见。

人脸识别尝试识别人脸的特征,并将人脸与现有人脸数据库匹配。 人脸分析使用人脸特征识别其他因素,如性别、人种、检测疲劳的驾驶员等。 据亚马逊发言人介绍,用人脸分析来评价人脸识别的正确性是没有意义的,这是合理的主张。

这两个过程虽然不同,但人脸分析在识别嫌疑犯方面起着重要作用,在被警察使用之前必须更加准确。 例如,如果嫌疑人在视频中被逮捕但看不清楚,以前没有被逮捕,无法与数据库进行对照,则使用面部分析取得嫌疑人的身份。 如果这个嫌疑犯是被误认为男性的女性的话,有可能永远找不到。

你用了太多的脸部识别软件吗

这并不奇怪,但我很失望,因为在可能导致严重后果的情况下部署了带有偏见的软件。 使用脸部识别软件的优点很明显,但是现在监督了这个技术,强迫开发者在提高其准确性之后,开展成风险高的状况。

大家都在看

相关专题