您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[数据创新中心]:2023人工智能法案应该是技术中立的报告 - 发现报告

2023人工智能法案应该是技术中立的报告

2024-02-01-数据创新中心A***
2023人工智能法案应该是技术中立的报告

Patrick Grady | 2023年2月1日 欧盟旨在实施世界上第一个人工智能(AI)法规,即《人工智能法案》,旨在让人们和企业“在感到安全和受到保护的同时享受AI的好处”。1不幸的是,人工智能法案对人工智能的广泛定义惩罚了不会带来新风险的技术。2为了解决这个问题,政策制定者应该修改人工智能的定义,只适用于会带来重大挑战的特定人工智能方法。 政策制定者长期以来一直重视技术中立性原则,该原则认为法律法规应避免对一套技术给予特权或惩罚。3技术中立性并不一定要求完全相同的规则适用于不同的技术。例如,如果政策制定者认为人工智能系统存在非人工智能系统中没有发现的新风险,他们可以而且应该解决这些风险。 这份报告显示,尽管有欧盟委员会的意图,但人工智能法案并不是技术中立的,而不是解决对不可解释的机器学习(ML)系统(AI系统的一个子集)的独特担忧,该法案将适用于更广泛的不需要监管干预的AI系统。4其结果是立法将对欧盟的人工智能生态系统造成重大的超越和潜在的伤害。更好的定义将把拟议法律的范围限制在那些构成新风险的技术上。 人工智能的发展不是线性的— —它已经并将继续经历各种繁荣时期(“春天”)和停滞时期(“冬天”)。上一个“人工智能冬天”已经过去,但欧盟在人工智能研究、投资和 如果欧盟的人工智能法案限制创新,就像当前版本的法案可能会这样做,下一个人工智能冬天可能是严格的欧洲。5 定义人工智能 AI的定义至关重要,因为它决定了AI法案的范围。不幸的是,从业者,研究人员和开发人员之间没有普遍同意的定义。6人工智能是一个移动的目标:正如创造“人工智能”的计算机科学家约翰·麦卡锡(JohnMcCarthy)所说,“一旦它起作用,就没有人再称之为AI了。7事实上,人工智能的定义已被证明是人工智能法案中最具争议的部分之一。 欧盟委员会在其最初的提案中使用了以下描述: “人工智能系统”(AI系统)是指使用附件I中列出的一种或多种技术和方法开发的软件,对于给定的一组人类定义的目标,可以生成诸如内容,预测,建议之类的输出或影响与之交互的环境的决策。8 《人工智能法》附件一列出了以下技术和方法: (a)机器学习方法,包括有监督,无监督和强化学习,使用多种方法,包括深度学习; (b)基于逻辑和知识的方法,包括知识表示,归纳(逻辑)编程,知识库,推理和演绎引擎,(符号)推理和专家系统; (c)统计方法、贝叶斯估计、搜索和优化方法。 通过使用一系列技术来定义AI,欧盟可能会捕获太少,不考虑未来的AI方法,以及太多,包括对政策制定者的担忧几乎没有影响的AI方法。 机会成本 人工智能法案规范了人工智能的“高风险”使用,并确定了八个“高风险”类别,人工智能系统必须接受合格评定,并履行透明度要求和上市后监测义务。9 委员会承认,它不知道有多少应用程序属于“高风险”类别。它的影响报告估计所有AI应用程序的15%,但支持这一估计的研究承认 “实际比例未知,将取决于高风险AI系统的定义。”10 The AI Act will price AI systems out of the EU ’ s market and hamper the arrival ofothers. Consider in table 1 the following “high risk ” use cases that already improve —or promise to improve — the lives of European. 人工智能的批评者往往忽视了这项技术是如何悄悄地但戏剧性地改善了消费者生活的许多方面-例如,保护他们免受欺诈,在线过滤有害内容,在任何地方以任何方式提供路由服务,翻译世界语言,通过面部识别确保支付,跟踪健康数据和福祉,诊断疾病和疾病,改善客户服务,优化交付,推荐新音乐以及改善语音和视频通话。 如果《人工智能法案》获得通过,许多新的用例可能永远不会到来,因为创新者将面临繁重的要求。随着欧盟经历所谓的“数字十年”,其独角兽和最有前途的人工智能初创企业已经转向其他地方。27欧盟可能会进一步阻止投资,并在漫长的AI寒冬中休眠其AI生态系统。为了避免这种命运,欧盟应该重新审视其对AI的定义,以使其尽可能在技术上中立。 一种技术中立的人工智能调控方法 人工智能将在未来十年推动数字经济的显著增长,欧盟面临被甩在后面的危险。28人工智能法案的出台是为了应对人们对失控技术对社会的潜在影响的担忧,该法案有可能阻止研究和投资。欧盟在监管人工智能时,应该采取技术中立的方法,在使用人工智能和不使用人工智能的过程之间创造一个公平的竞争环境,而不是屈服于最新的技术恐慌。这样做不应该引起争议:委员会在其提案中解释说,人工智能的定义“旨在尽可能保持技术中立和面向未来。. "29但是, 正如起草的那样,它威胁到了最基本的技术中立性概念。 技术中立的法规避免不公平地偏爱一种技术而不是另一种技术,尤其是当它们之间没有相关差异时。欧盟委员会关于监管数字技术的指令将“技术中立性”定义为“既不强加也不歧视有利于使用特定类型技术的法规”,但指出技术中立性“并不排除采取适当步骤来促进某些特定服务,这是合理的。例如,数字电视作为提高频谱效率的手段。. "30 特定技术法规的问题在于,它们很快就会过时,因为它们无法预测未来的创新,需要永久的修改才能保持相关性。例如,20世纪60年代试图调节晶体管或集成电路的政策制定者永远无法想象这些技术将如何产生个人计算机,移动设备和互联网。特定技术的法规通常会阻碍高级技术的采用。 有些人总是会滥用新工具。但是,政策制定者应该专注于让那些滥用它的人对自己的行为负责,而不是过度限制最新技术,从而阻碍正面和负面的使用。31 立法对话缩小了该法案的范围,但还不够。政策制定者应该修改人工智能法案,使其尽可能技术中立。在这种情况下,它应该只适用于不可解释的机器学习,因为只有这些系统会引入新的风险,因此可以证明采用特定技术的方法是合理的。 为了了解原因,本报告的下一部分评估了AI法案范围内的AI技术集-统计,搜索和优化方法; AI; ML;和不可解释的ML。 统计、搜索和优化方法 数千年来,人类依靠算盘进行计算。机械计算器出现在17世纪(并遇到了熟悉的道德恐慌[见方框1]),然后在20世纪下半叶被数字计算器所取代。此后,计算器彻底改变了数学,物理,化学,工程和天文学。但想象一下,如果政府制定了一项法律,限制其在“高风险”案件中的使用,包括建筑和会计。这种禁令将削弱其开发和使用。 方框1:计算器恐慌 理查德·桑顿(Richard Thornton)是19世纪美国期刊《原始Expounder》的编辑,他以不可思议的预言反对机械计算器: “[S]这些机器,学者可以通过转动曲柄来解决一个问题,而不会感到精神上的疲劳,而将其引入学校,会造成无法估量的伤害。但是谁知道这样的机器当达到更大的完美时,可能不会想到一个弥补自己所有缺陷的计划,然后在凡人的头脑之外磨出想法!”32 然而,与低算盘相比,计算器引入了巨大伤害的能力。它大大加剧了错误,并以不可能的规模和速度帮助了金融罪犯,洗钱者和掠夺性贷方。考虑对荷兰欺诈风险评分工具(fraquescorekaart)的批评。33例如,如果单身,从事低薪工作,受教育程度低或生活在较不受欢迎的社区中,则该工具粗略地将最有可能犯有欺诈罪的人分配给他们。该工具不是复杂的AI系统,而是一个简单的电子表格-一个大计算器。在产生有争议的结果之后,一些市政当局决定停止使用该系统。34 然而,规范计算器是错误的,因此将统计方法纳入人工智能法案。使用欺诈工具的决定是一个政策决定。人类控制着所有的投入(就业、生活状况、家庭、年龄、教育、欺诈史等。)和权重(其中一些完全是主观的,而不是基于统计证据)共同分配了欺诈风险。35正确的回应是惩罚那些策划并决定使用该技术的人,而不是规范Excel电子表格。 不幸的是,这不是委员会的做法。由于担心可能发生类似欺诈的丑闻,《人工智能法》的初稿在其范围内包括使用许多基本软件(例如Procedre,附件III捕获,基本线性回归模型和电子表格中使用的统计程序),涵盖所有八个所谓的“高风险”部门。然而,这种类型的基础软件并没有带来新的风险,因此为其创建独特的规则违反了技术中立性的基本原则。 人工智能 有些人在听到“AI ”一词时就会想到先进的机器人和自动驾驶汽车,但这个术语本身只是指可以模拟人类动作的计算机系统,例如推理,感知和行动。因此,许多AI系统都是相当基础的。 以澳大利亚机器人债务为例,澳大利亚政府部署了一个人工智能系统来自动化其债务回收过程。36Robodust搜索差异,确定前任或现任福利接受者是否欠债,并继续分发通知。该系统发出了700, 000份债务通知,其中470, 000份被证明是无效的。37这场崩溃对那些错误收到通知的人和政府都造成了毁灭性的后果,政府继续弥补这些错误。 当人工智能参与决策时,很容易将糟糕的结果归咎于机器。AI工具可能会严重失火。事实上,澳大利亚政府对人工智能的使用提高了这场灾难的速度和规模。但Robodebd并不是一个先进的自学或不可预测的人工智能系统。相反,该系统将简单的算法与决策算法连接起来,其中许多算法已经使用了很长时间,并使用收入数据来推断超额支付。38工作人员能够通过系统的过程与人们交谈,甚至在电话中代表他们输入收件人的数据。39政策制定者选择部署该系统,并对其进行了完全控制和监督,但未能监督或审查其决策的质量。 这场灾难不是人工智能制造的,但根据澳大利亚联邦法院法官伯纳德·墨菲的说法,“公共管理的巨大失败”。40除了交付不力和上诉程序疏忽外,该系统还不合法,因为它没有遵守几项法律原则,包括“在被证明有罪之前无罪”。41它还使用了澳大利亚政府此后宣布为非法的债务平均法。42这个案例没有提供证据表明人工智能系统应该受到惩罚;相反,它证明了公共部门问责制和可追溯性在政府流程中的重要性。对人工智能的关注是对公共政策和决策中系统性问题的危险干扰。43 起草的《人工智能法案》对人工智能在一些显著改善公民生活的应用中的使用进行了惩罚:人工智能交通系统使道路更安全,并使警察免于繁琐的工作;智能供暖系统,可降低消费者和化石燃料燃烧的成本;以及应急分类系统,其响应时间的提高有助于挽救生命。所有这些系统都在“高风险”的范围内,并受到巨大的合规成本以及透明度和监控要求。 许多人工智能系统将属于附件I(b)中列出的方法:“基于逻辑和知识的方法,包括知识表示,归纳(逻辑)编程,知识库,推理和演绎引擎,(符号)推理和专家系统”。44These systems should not be in the scope of the final textbecause they do not pose really novel risks. Scapeogoating the use of these systemsmerely hambers 创新,同时忽视人类的危险行为和决策。 机器学习 当批评人工智能的使用时,立法者经常— —甚至在不知不觉中— —提到机器学习系统。对透明度、自主性和责任的新关注只是机器学习的先见之明。最近的提案表明,欧盟正在缩小机器学习的范围。45这是朝着正确方向迈出的一步,但政策制定者不应止步于此。 机器学习系统通过观察数据,根据数据建立模型,并将模型用作对世界的假设和解决问题的程序来改进。在2000年代,机器学习的突破标志着第二个AI冬天的结束。46ML现在是最先进的技术,并推动了AI的大多数可见进步。47 学习系统的引入带来了新的挑战。学习系统在用于招聘,翻译,图像识别,警务和执法以及面部识别时,可能会通过复制,揭示和加剧现有的人类偏见而失火。48系统也可能以与训练集无关的不可预测的方式失火。例如,算法为STEM(科学,技术,工程和数学)工作推送广告的目标女性较少,因为系统了解到年轻女性的成本更高。49邪