您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[布鲁金斯学会]:《欧盟人工智能法》:在人工智能领域建立国际合作的下一步和问题(英) - 发现报告
当前位置:首页/行业研究/报告详情/

《欧盟人工智能法》:在人工智能领域建立国际合作的下一步和问题(英)

《欧盟人工智能法》:在人工智能领域建立国际合作的下一步和问题(英)

政策简介2022 年 5 月吨欧盟人工智能法案建立国际合作的后续步骤和问题乔什·梅尔策亚伦·蒂勒曼斯 欧盟人工智能法案:建立国际合作的下一步和问题1布鲁金斯学会介绍2021 年 4 月,欧盟委员会提交了关于欧盟人工智能监管框架的提案。 《人工智能法案》代表了全球范围内对人工智能 (AI) 进行横向监管的首次尝试。人工智能法案的域外适用及其对政策制定者可能产生的示范效应(所谓的“布鲁塞尔效应”)意味着人工智能法案将对全球人工智能监管的发展产生一系列影响,以及努力建立人工智能国际合作。以下概述了 AI 法案在成为法律之前通过欧盟体系的后续步骤,AI 法案中最受关注的关键问题,以及 AI 法案如何影响 AI 领域的国际合作。本政策简报来自由 Josh Meltzer、Cameron Kerry 和 Andrea Renda 共同领导的人工智能合作多利益相关方论坛 (FCAI) 的讨论,以及最初发表在 2021 年 10 月 FCAI 报告《加强人工智能国际合作》中的分析。人工智能法案的后续步骤欧盟委员会的人工智能法案草案建立在人工智能高级专家组 (AI HLEG) 所做的工作的基础上,并得到了利益相关者和专家对委员会进程的投入。关于人工智能法案的下一步:委员会向欧洲议会(议会)和欧盟理事会(理事会)提交提案草案启动了欧盟的普通立法程序。虽然下一步在技术上是议会启动人工智能法案草案的一读,委员会的提案在提交给理事会之前被采纳或修改,但有几个中间步骤对于围绕人工智能法案达成共识至关重要立法。理事会由来自每个欧盟国家的政府部长组成,是欧盟与议会一起的主要决策机构之一。在议会考虑委员会提出的法规之前,理事会通常会通过一份通用方法文件,让议会了解理事会的立场,以“加快立法程序”并促进议会和理事会之间达成协议一读之前。 2021 年 11 月,理事会斯洛文尼亚轮值主席国根据一般方法公布了对委员会拟议人工智能法案上半年的拟议修正案,今年(2022 年)2 月,理事会(现为法国轮值主席国)提出了对人工智能法案的后半部分。理事会的这些修正案为议会在审议人工智能法案时提供了重要指导。 欧盟人工智能法案:建立国际合作的下一步和问题2布鲁金斯学会在欧洲议会中,管辖委员会负责审查委员会提出的人工智能法案,并制作自己的报告,提出对人工智能法案的修改和修正。议会已指定两个委员会共同负责审查《人工智能法案》——内部市场和消费者保护委员会 (IMCO),Brando Benifei 担任报告员,公民自由、司法和内政委员会 (LIBE),Dragos Tudorache 担任报告员报告员。IMCO 和 LIBE 于 4 月发布了一份报告草案,涵盖了对委员会提案的拟议修正案。除了 IMCO 和 LIBE,法律事务委员会 (JURI)、工业、研究和能源委员会 (ITRE) 以及文化和教育委员会 (CULT) 也将提供意见。目前尚不清楚这些议会委员会何时完成工作,尽管目前 IMCO 和 LIBE 委员会的目标是在 2022 年秋季之前通过一份联合报告。通过这份报告后,联合委员会可能决定进行一系列非正式谈判,称为“三部曲”,议会和理事会在其中与作为调解人的委员会协调他们对人工智能法案的版本。预计理事会和议会将在今年晚些时候达成妥协案文。一个成功的结果将使临时人工智能法案返回议会和理事会,预计这将批准三部曲结果。在议会中,临时人工智能法案需要得到联合委员会的批准,然后由全体议会辩论和投票,然后人工智能法案被通过成为法律。迄今为止的人工智能法案:国际一致还是分歧?根据委员会提出的人工智能法案和议会迄今为止的工作,有一系列热点问题最终将影响人工智能法案,它们的解决也将对人工智能监管的国际合作产生影响。其中最重要的是关于如何定义人工智能是什么以及基于风险的方法的范围的基本问题。 AI 法案的执行方式对于成功实施如此庞大的监管框架也至关重要。以下将扩展这些关键问题以及这对人工智能国际合作可能意味着什么。我们关于 AI 国际合作的 FCAI 报告更深入地探讨了建立 AI 国际合作的机会,包括 AI 法案在此背景下的作用。委员会的提案包括它希望最终确定的人工智能法案实现的具体目标。其中包括旨在监管高风险人工智能和禁止被认为风险太大的人工智能,同时促进人工智能的投资和创新。监管人工智能和鼓励人工智能投资和创新的双重目标可能会加剧或加剧紧张局势,具体取决于最终结果。平衡的必要性反映在让两个议会委员会审议人工智能法案的决定中——LIBE 通常被认为更关注对基本权利的影响,而 IMCO 更倾向于促进创新。 欧盟人工智能法案:建立国际合作的下一步和问题3布鲁金斯学会根据《人工智能法案》第 3 条第 1 款,人工智能系统是“使用附件 I 中列出的一种或多种技术和方法开发的软件,并且可以针对一组给定的人为定义的目标生成输出,例如作为影响他们与之交互的环境的内容、预测、建议或决策。”定义什么是人工智能人工智能(或者更确切地说,人工智能系统)的定义将决定法规的范围。狭义的定义会将某些类型的人工智能系统排除在范围之外,但是,过于宽泛的定义可能会扫除不会产生人工智能监管所关注的风险或危害类型的常见算法系统。FCAI 报告概述了其参与政府给出的定义。虽然人工智能没有“单一定义”,但人们已经为人工智能的共同定义做出了许多努力。许多国家已经在框架、指南或拨款语言中定义了 AI,但 AI 法案中的定义是出于监管目的对 AI 的第一个定义。 《人工智能法案》最终采用的定义可能会成为其他国家其他人工智能法规的参考点,有助于在全球范围内建立共识。这片区域。不过,目前还没有决定最终的结果。理事会从 2021 年 11 月起提出的修正案包括修改后的 AI 定义,将法规的范围缩小到机器学习。考虑到联合委员会的报告草案支持对 AI 的广泛定义,关于什么是 AI 定义的辩论可能会持续到流程的三部曲阶段。基于风险的人工智能监管方法《人工智能法案》承诺采用一种“相称的”基于风险的方法,“仅在人工智能系统可能对基本权利和安全构成高风险时才施加监管负担”。针对特定行业和应用,人工智能法案将风险分为四个级别:不可接受的风险、高风险、有限风险和最小风险。更高级别的应用程序的监管和分类,即那些被认为具有不可接受的风险的应用程序,例如社会评分,或高风险的应用程序,例如在个人发展或个性化教育的背景下与儿童互动的人工智能,将是各国正在考虑的一个关键问题。议会和理事会。在全球范围内,许多政府都支持对人工智能的监管应该以风险为基础。 2021 年 FCAI 报告《加强人工智能国际合作》发现,大多数政府参与者“明确”支持基于风险的人工智能监管方法。例如,在美国,美国管理和预算办公室的人工智能应用监管指南包括“风险评估和 欧盟人工智能法案:建立国际合作的下一步和问题4布鲁金斯学会管理”作为其十项原则之一。然而,从对风险评估的高级承诺转向其应用将揭示不同的方法,如果不加以解决,可能会导致评估人工智能风险和风险管理的不同本地化方法,这可能会给人工智能的开发和使用带来成本。在美国,美国国家标准与技术研究院 (NIST) 正在开发一个人工智能风险管理框架 (AI RMF),该框架可以促进识别和评估风险的方法的一致性。也就是说,美国和欧盟在人工智能风险评估方法上已经出现了差异。例如,人工智能法案将人工智能系统划分为四个风险类别可能不会反映在美国的做法中。此外,美国已经强调,任何对人工智能风险的评估都需要考虑人工智能系统对现有风险的改进程度,而欧盟人工智能法案目前并未明确解决这一问题。执行和自我评估机制另一个关键问题集中在人工智能法案的治理结构上。为执行新法规,欧盟将创建一个新的欧洲人工智能委员会 (EAIB),由欧洲数据保护监管机构、委员会和国家监管机构组成,类似于通用数据保护条例 (GDPR) 的监督机制。报告员 Tudorache 引用的对 EAIB 的一个担忧是,它将导致执法格局分散,成员国在执行 AI 法案的能力和意愿上各不相同。在议会的 AI 报告草案中,两位报告员都同意加强 EAIB 的执法作用,以补充国家层面的执法,尽管确切的机制(以及对此类措施的支持)尚未确定。关于如何执行 AI 法案的另一个悬而未决的问题涉及委员会针对不同类型的高风险系统提出的符合性评估要求。 按照目前的设计,对于使用产品安全组件的人工智能系统,例如医疗设备或汽车,成员国的国家主管部门(例如G。,负责监管、实施和执行法规的政府机构)将指定第三方公告机构进行合格评定。 然而,对于“独立”的高风险人工智能系统,只需要进行行业自我评估。 这种方法在从系统是否为高风险到合规问题等各个方面都存在不同的方法和结果。 部分出于这些担忧,欧洲经济和社会委员会 (EESC),委员会、理事会和议会的一个咨询机构,建议对所有归类为高风险的系统强制进行第三方评估。 这仍然是议会的一个症结所在,负责 AI 报告草案的两位欧洲联合报告员之一白兰度·贝内菲仍然怀疑自我评估是否足以保护消费者和基本权利,而另一位联合报告员, Dragoş Tudorache 对因行政障碍而负担过重的公司表示担忧。合规成本也将成为争论的焦点,尤其是在涉及对中小企业 (SME) 的影响时。 欧盟人工智能法案:建立国际合作的下一步和问题5布鲁金斯学会人工智能法案如何解决这些治理问题将对国际合作有多种影响。一方面,人工智能法案中的风险评估和合格评估机制可能会“为人工智能审计标准的国际市场的出现铺平道路”。在这种情况下,它可以帮助支持全球可互操作的一致性评估方法。与此同时,不同行业和欧盟成员国在人工智能实施方面的不一致或能力不同可能会阻碍与其他国家制定促进人工智能贸易所需的互认协议。同样,这是国际参与可以帮助欧盟了解其不断增长的数字共同体的更广泛影响的地方。AI 法案还将影响 AI 标准的开发和使用,这将对欧盟乃至全球的 AI 标准开发产生影响。具体来说,对于高风险人工智能系统,当这些人工智能系统符合由指定的欧洲标准组织 (ESO) 即 CEN、CENELEC 和 ETSI 制定的官方采用的“协调标准”时,存在“符合性推定”。这种符合性假设既会产生对人工智能标准的需求,也会强烈激励设计符合这些标准的人工智能系统。然而,对欧盟标准的关注意味着在其以欧洲为中心的标准开发机制与对减少人工智能在全球传播障碍的全球互操作标准的需求之间取得平衡非常重要。人工智能法案和更大的图景人工智能法案中许多重要元素的动态和不稳定状态意味着目前有一个窗口供国际合作伙伴帮助告知欧盟如何制定人工智能法案,以实现监管人工智能以保护基本权利和支持国内人工智能的创新和投资。在这方面,欧盟参与 FCAI 及其成为全球人工智能伙伴关系 (GPAI) 的成员以及与经合组织人工智能政策观察站 (OECD.AI) 的合作是重要的参与点。最近,在 2021 年 9 月,将 AI 政策纳入欧盟-美国。贸易和技术委员会 (TTC) 展示了进一步积极监管协调的潜力。此外,值得注意的是,人工智能法案并不存在于立法真空中。人工智能法案是委员会更广泛的数字战略中的一项立法。特别是今年 4 月通过的《数据治理法》和新提交的委员会关于新数据法的提案也很重要,因为它们影响了公共和工业部门对数据的访问。旨在开发欧洲云的欧盟 GAIA-X 项目也将影响数据的使用和存储方式,并对人工智能产生影响。最后,预计委员会还将在今年晚些时候人工智能提出的新挑战的背景下提出一个调整责任规则的法律框架。这些不同的拟议法规将如何相互作用,以及它们对所谓的布鲁塞尔效应的强度和欧盟的国际方法的影响仍在进行中,尽管 欧盟人工智能法案:建立国际合作的下一步和问题6布鲁金斯学会对欧盟而言,并非没有风险,因为其他政府也在更广泛地制定自己的人工智能和数据访问监管方法。 1鉴于欧盟委员会强调其将 AI 法案作为新的全球标准发挥作用的意图,以及欧盟高度融入这个合作生态系统,成功的 AI 法案有可能成为其他政府方法的新基准人工智能监管。然而,存在风险,即《人工智能法案》可能在重要方面与美国和其他地方正在制定的方法不同,从而为人工智能的