您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[FSIC]:面部识别的未来及其对少数群体的影响:决策者和利益相关者应该考虑什么 - 发现报告
当前位置:首页/其他报告/报告详情/

面部识别的未来及其对少数群体的影响:决策者和利益相关者应该考虑什么

2022-06-15-FSIC小***
面部识别的未来及其对少数群体的影响:决策者和利益相关者应该考虑什么

面部识别的未来及其对少数族裔的影响:政策制定者和利益相关者应该考虑什么金融服务创新联盟 (FSIC) 技术包容性倡议论文作者Kevin B. Kimble,彼岸。创始人兼首席执行官金融服务创新联盟安妮·格里芬人工智能与区块链专家布雷迪·J·巴克纳总统金融服务创新联盟 - AIOF 表内容5 前言5特别感谢6介绍7面部识别技术 (FRT) 的优势8不准确和人为错误的危险10努力禁止 FRT11需要融入技术工作场所13 改善高风险使用、通过多样性增加收益和防止滥用的解决方案和补救措施16结论17参考书目©2022 金融服务创新联盟3 前言尼尔·萨霍塔博士联合国人工智能顾问1994 年,Bally's 在拉斯维加斯赌场推出了面部识别功能。虽然人类可以使用摄像头在设施中跟踪一个人,但面部识别技术的出现允许计算机同时实时跟踪数百人。什么开始随着赌场很快了解客户对游戏和饮料的偏好,一种打击作弊和欺诈的解决方案演变成一种营销工具。快进到 2007 年,澳大利亚推出了 SmartGate,它与生物特征护照配合使用,通过面部识别和护照照片来验证一个人。今天,面部识别技术 (FRT) 取得了巨大的飞跃,不再需要与标记图像或护照照片数据库进行比较。现在,人工智能 (AI) 技术可以通过搜索互联网从未连接的图像、视频或音频文件中确定一个人是谁。或者可以吗?2015 年,谷歌表示其面部分析技术在识别白人男性的性别方面做得很好,但在识别女性和少数族裔方面表现不佳。更糟糕的是,该技术认为非裔美国人是“大猩猩”。尽管这些不是谷歌故意的绰号或错误,但他们提出了这怎么可能发生的问题。这就是我们面临的挑战。在开发这些技术时,我们需要不同的团队来训练人工智能系统。我们可以展示一百万张各种不同面孔的照片来训练人工智能系统;但是,如果没有一张照片显示有人戴眼镜,那么人工智能将不会意识到人们可以戴眼镜。这似乎微不足道,但想想我们对面部识别的所有变化。遗漏变异意味着我们遗漏了一部分人口。致谢FSIC 非常感谢安防行业协会(SIA) 和SIA 身份和生物识别技术顾问委员会将他们对 FRT 作为一项技术和一个行业的专业见解提供给他们。 FSIC 还要感谢 Benji Hutchinson 在时间、历史 FRT 知识和行业专业知识方面的慷慨贡献。©2022 金融服务创新联盟5 面部识别的未来及其对少数族裔的影响:政策制定者和利益相关者应该考虑什么6介绍有这么多潜在的好处,为什么对人工智能和面部识别技术有如此多的反对?人工智能 (AI) 和新兴技术革命带来了许多令人难以置信的进步。从自然语言处理到面部识别技术 (FRT) 再到语义分析,有很多值得欣赏和欣赏的东西。由于现代 FRT 离不开 AI,因此该领域的大部分讨论都围绕着 AI 组件的准确性。但是,与所有事情一样,需要考虑一些警告问题。最紧迫的问题之一是种族平等和多样性。在过去的几年里,美国越来越意识到其系统性种族主义和经济差距问题。这种意识已经蔓延到有关技术行业法规的讨论中。因此,不可能忽视对人工智能的更多依赖的转变,特别是因为它与 FRT 及其对有色人种社区的潜在不利影响有关。它已经变得如此普遍,甚至美国国税局也为纳税人提供了使用面部识别作为账户访问安全功能的选项。注意:在某一时刻,美国国税局要求面部识别安全来访问账户。迄今为止,已有约 7000 万美国人注册了该计划。从金融服务到医疗保健,技术进步并没有平等地惠及所有人,而且在许多情况下,已被用于损害少数族裔社区。定义和面部识别的工作原理首先,一些基本定义:1.人工智能将算法应用于海量数据,以加速信息处理和决策。2.基于人工智能的面部识别技术是一种可以快速搜索大型数据库的软件人脸并将它们与在照片或视频中检测到的一个或多个人脸进行比较。向美国国会介绍的被广泛接受的面部识别定义:面部识别技术:术语“面部识别技术”是指根据个人面部特征帮助识别或验证个人的自动化或半自动化过程。必须指出的是,人们经常将“面部识别技术”与其他类型的软件混为一谈。例如,国家人类基因组研究所使用“面部分析技术”来检测一种罕见的遗传病。此应用程序不会被视为 FRT,因为在面部分析过程中不使用任何识别组件。还有其他例子,但上述定义将适用于本出版物。技术可以是一把双刃剑正如历史所证明的那样,技术对于少数族裔来说可能是一把双刃剑,在 FRT 方面尤其如此。例如:1.随着 FRT 系统的准确性不断提高,必须减少高风险使用中错误影响弱势社区的可能性。2.劳动力多样性和包容性的缺乏导致许多技术进步被用来伤害少数族裔或使其处于不利地位,尤其是美国黑人。在技术方面存在多层种族平等困境,但需要进行最重大改革的两个领域包括: 一般工作场所包容性 技术在该领域的合理使用面部识别技术的使用呈指数级增长,并带来了许多好处。但是,除非技术行业的领导者和利益相关者找到一种方法来消除偏见并增加各个层面的多样性,否则面部识别的好处将被扼杀,并且禁止该技术的呼声将继续存在。 面部识别的好处面部识别市场规模巨大,预计 2021 年将达到 50.1 亿美元,研究人员预计到 2028 年将增长到 126.7 亿美元。它的用途很多,例如允许您: 在机场通过安检 解锁您的手机 在商店购买产品面部识别有很多好处,尤其是在安全和执法方面。这些福利对黑人、西班牙裔和土著社区至关重要,在这些社区,失踪儿童和未解决的谋杀案的数量非常可悲。用途在许多情况下,FRT 和由此产生的利益是合法的、合乎道德的和非歧视性的,例如: 检测身份欺诈 防止潜在的恐怖袭击 帮助寻找和营救性交易受害者执法机构使用该技术来发现罪犯或寻找失踪的儿童或老年人。在纽约,警方在事件发生后 24 小时内使用面部识别技术逮捕了一名被指控的强奸犯,他威胁要强奸一名妇女。刀尖。此外,正确使用该技术可以减少少数族裔与警察和执法部门的人际互动,从而减少产生不利后果的机会。机场越来越多地将面部识别技术添加到安全检查站;美国国土安全部预测,到 2023 年,97% 的旅行者将使用 FRT 来验证他们的旅行证件。此外,在犯罪率飙升的城市,企业主已经安装了面部识别系统,以在已知个人参与有组织的零售犯罪进入其营业场所。此外,还有许多真实世界的例子说明它是如何有益的: 艺人泰勒·斯威夫特(Taylor Swift)在 2018 年 5 月的玫瑰碗音乐会上使用这项技术来识别她的跟踪者。 纽约市警方使用 FRT 识别一名潜在的恐怖嫌疑人,他将一对电饭煲留在地铁站 一个非营利组织使用 FRT 帮助营救了 15,000 名儿童并确定了 17,000 名性贩运者©2022 金融服务创新联盟7 面部识别的未来及其对少数族裔的影响:政策制定者和利益相关者应该考虑什么8不准确和人为错误的危险公众对面部识别最重要的担忧之一是误报的可能性。误报是指软件错误地将个人识别为其他人。在执法部门利用该技术创建与嫌疑人可能匹配的列表的应用中,误报意味着某人可能被错误识别,从而导致错误逮捕。当你考虑到逮捕确实出现在一些背景调查中时,即使它们是错误的,它们仍然可能导致未来的失业和经济机会。除此之外,他们在监狱中因无法工作而导致的任何直接收入损失,还有他们可能无法支付的保释费用。虽然这些模型的准确度已经显着提高,从而将错误率降低到 0.03%,但这在非常好的条件下使用高精度模型是可能的。但是,0.03% 的误差率只发生在更高质量的图像上。例如,对于质量较低的图像,错误率可能会增加到 2020 年测试的一种算法的 9.3%。由于使用 FRT 的个人的偏见及其错误的影响,因此肯定需要进行稳健的训练。根据 Neurosciencenews.com 的说法,“在将照片与不熟悉的面孔进行比较时,即使是经验丰富的面部识别人员也可能会出错多达二分之一。”同时,美国国家标准与技术研究院 (NIST) 的研究表明,与单独使用任何一个组件相比,FRT 和训练有素的人员的结合可以产生最准确的识别过程。对于用户,尤其是执法人员,培训应该是全面的,但对于所有将 FRT 用于高风险用途的人来说,培训肯定是全面的。培训要求应评估: 在高风险用例下部署此类技术的能力和局限性 解释和处理比赛结果的程序 人工审核要求从美国的角度使用面部识别技术和其他先进技术及其对少数族裔的影响在美国,一些联邦、州和地方执法机构使用 FRT。截至 2021 年,至少有 42 个联邦机构利用面部识别进行执法。一些人担心,在创建先进技术工具的美国组织内部缺乏包容性、多样性和公平性,再加上一些执法机构的种族主义和偏见历史,可能会进一步自动化美国司法系统中的差距。因此,如果不改进这一领域,就很难实现多样性和包容性;因此,谨慎使用哪些公司和产品至关重要。作者 Cathy O'Neil 和 Virginia Eubanks 在他们关于大数据和自动化不平等的书中分别讨论了作为一个社会,我们如何越来越多地使用机器实现决策自动化。这样做的危险在于,人类可能过于相信技术性能,因此不再质疑人工智能驱动的决策。通常没有适当的系统来质疑算法,透明地审查决定并为受到伤害的人伸张正义。最著名的例子之一是 COMPAS 累犯算法,该算法不公平地预测黑人被告比白人被告更有可能重新犯罪。 ProPublica 发现,该算法将黑人被告错误归类为暴力累犯高风险的可能性是该算法的两倍一名白人被告。该算法将多人关押在监狱中的时间超过了必要的时间,这通常对黑人和有色人种的个人、家庭和社区产生不成比例的影响。此外,随着执法部门对先进技术的使用增加,对观看未成年人的偏见作为犯罪分子的关系可能导致有色人种社区的警察暴力增加。 ©2022 金融服务9创新联盟错误示例及其后果不准确的危险和人为错误威廉姆斯案有助于揭开 FRT 在刑事调查中(有限)作用的神秘面纱,并且可以说明,大多数情况下,FRT 本身并不是主要因素美国有三个例子,据称执法部门使用 FRT 导致误逮捕。最著名的是罗杰·威廉姆斯。在使用面部识别进行调查后,底特律警察局误认了威廉姆斯先生并错误地逮捕了他。后来证实,人为错误是威廉姆斯误认和非法逮捕的原因。我们可以引用罗伯特·威廉姆斯案作为透明讨论的一个例子:1)在执法调查中使用 FRT 和 2)在导致错误逮捕的更广泛的过程中进行辩论和补救的机会。这与 O'Neil 和 Eubanks 的理论有关,即人类可能变得过于信任人工智能决策。在作出逮捕决定时。例如,可以指出调查机构没有根据协议使用 FRT 或其他调查程序。在一个60 分钟部分,警察局长说,错误逮捕导致来自“马虎”的警察工作。此外,可以说,其他刑事被告也应同样有权在导致其被捕的过程中收到有关使用 FRT 的信息,并应有类似的补救机会。与大多数乐器一样,问题通常不在于设备,而在于使用它的人。很明显,技术必须以解决刑事司法系统和执法人员、检察官和法官表现出滥用权力和不公平地过度监管有色人种社区的意愿的方式进行部署。 努力禁止 FRT报告的错误及其后果推动了禁止 FRT 的努力从大赦国际到 Data 4 for Black Lives 的组织都呼吁彻底禁止用于警务和执法的面部识别和其他生物识别技术。虽然一些担忧是关于全球技术准确性的报告偏差,但也有人担心从软件中消除偏差并不能消除使用该软件的人的偏差。在世界的某些地方,这些技术有助于政府和组织违反人权和公民自由。出于这个原因,他们要求国际组织和政府为这些技术制定可执行的政策:1.严格规范他们2.创造更多透明度3.确保使用该技术是合乎道德的4.补偿受到伤害的人如果没有这些政策改进和对如何应用 FRT 的更好理解,更多的组织和市政当局可能会支持禁止它的努力。面部识别的未来及其对少数族裔的影响:政策制定者和利益相关者应该考虑什么10 ©2022 金融服务创新联盟11多样性可以培养理解、更好的包容性和更少的偏见缺乏多样性可能导致有偏见的技术众所周知,FRT 和 AI 的使用量很大,并且与日俱增,因此,对种族差异的敏感性必须很高。许多专家认为,这种敏感性始于技术工作场所。数据一次又一次地表明,科技行业主要由白