您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[欧盟]:欧盟达成重大历史性协议《人工智能法案》 - 发现报告
当前位置:首页/其他报告/报告详情/

欧盟达成重大历史性协议《人工智能法案》

2022-11-25-欧盟顾***
欧盟达成重大历史性协议《人工智能法案》

14954/22RB / ek极限1ENTREE.2. B欧洲联盟理事会机构间档案 : 2021 / 0106 ( COD )布鲁塞尔 , 2022 年 11 月 25 日 (OR. en)14954/22LIMITE TELECOM 472JAI 1494COPEN 396CYBER 374DATAPROTECT 320EJUSTICE 89COSI 293IXIM 267ENFOPOL 569RELEX 1556MI 843COMPET 918编解码器 1773NOTE来自 : 常驻代表委员会 ( 第一部分 )致 : 理事会不。doc.:14336 / 22 号 Cion 文件 : 8115 / 21主题 : 欧洲议会和理事会法规的提案 , 规定了有关人工智能的统一规则 ( 《人工智能法》 ) 并修改了某些欧盟立法法案- 一般方法I.INTRODUCTION1. 委员会通过了一项法规的提案 , 该法规规定了有关人工智能的统一规则(人工智能法)2021 年 4 月 21 日 14954/22RB / ek极限2ENTREE.2. B2. 委员会提案的目标是确保放置在联盟市场上并在联盟中使用的 AI 系统是安全的,并尊重有关基本权利和联盟价值观的现有法律。确保法律确定性,以促进人工智能的投资和创新,加强治理和有效执行现有的基本权利和安全法律,并促进合法、安全和可信的人工智能应用单一市场的发展,同时防止市场分散。II. 在其他机构工作3. 在欧洲议会中,讨论由内部市场和消费者保护委员会 ( IMCO ; 报告员 : Brado Beifei,S & D,意大利 ) 和公民自由,司法和内政委员会 ( LIBE ; 报告员 : Dragos Tdorache,Reew,罗马尼亚 ) 根据联合委员会程序进行。法律事务委员会 ( JURI ),工业,研究和能源委员会 ( ITRE ) 和文化和教育委员会 ( CULT ) 与具有共同和 / 或独家权限的立法工作有关。两位联合报告员于 2022 年 4 月公布了他们的报告草案,IMCO - LIBE 联合报告的投票定于 2023 年第一季度进行。4. 欧洲经济和社会委员会于 2021 年 9 月 22 日发表了对该提案的意见 , 而欧洲区域委员会于 2021 年 12 月 2 日发表了意见。5.2021 年 6 月 18 日 , 欧洲数据保护委员会 ( EDPB ) 和欧洲数据保护主管 ( EDPS ) 就该提案发表了联合意见。6. 欧洲中央银行 ( ECB ) 于 2021 年 12 月 29 日发布了其意见 , 并于 2022 年 2 月 10 日在电信和信息社会工作组 ( 以下简称 : WP TELECOM ) 上提交了该意见。 14954/22RB / ek极限3ENTREE.2. BIII. 在理事会的状态1. 在理事会中 , 对该提案的审查已在 WP TELECOM 中进行。 WP TELECOM 在葡萄牙担任主席期间开始讨论该提案 , 并在 2021 年 4 月至 6 月间举行了几次会议和讲习班。在斯洛文尼亚担任主席期间继续进行该提案的工作 , 该主席起草了第一项部分折衷提案 , 涵盖第 1 - 7 条和附件一至三。此外 , 斯洛文尼亚总统府组织了为期半天的非正式电信部长理事会 , 专门讨论《人工智能法》提案 , 在此期间 , 部长们确认了他们对规范人工智能的横向和以人为中心的方法的支持。法国总统府继续进行审查 , 并在任期结束时重新起草了案文的其余部分(第 8 - 85 条和附件四 - 九)并于 2022 年 6 月 17 日提交了关于人工智能法案的第一个综合妥协提案。2.2022 年 7 月 5 日 , 捷克轮值主席国根据一份政策选择文件在 WP TELECOM 举行了一次政策辩论 , 其结果用于编写第二个妥协文本。根据各代表团对这一妥协的反应 , 捷克主席准备第三个妥协案文, 于 2022 年 9 月 22 日和 29 日在 WP TELECOM 上进行了介绍和讨论。在这些讨论之后 , 要求各代表团提供进一步的书面评论 , 捷克总统将其用于起草第四个妥协方案。根据 2022 年 10 月 25 日和 2022 年 11 月 8 日在 WP TELECOM 举行的关于第四项折衷提案的讨论 , 并考虑到会员国的最后书面意见 , 捷克主席编写了妥协文本的最终版本, 可以在附件中找到。 11 月 18 日 , Coreper 审查了这一折衷提案 ,鉴于总体方法 , 一致同意将其提交 TTE ( 电信 ) 理事会 , 不作任何更改在 2022 年 12 月 6 日的会议上。 14954/22RB / ek极限4ENTREE.2. BIV. 妥协方案的主要内容1.AI 系统的定义 , 禁止的 AI 实践 , 附件 III 中的高风险 AI 用例列表以及将 AI 系统分类为高风险1.1 为了确保 AI 系统的定义提供了足够明确的标准来区分 AI 与更经典的软件系统 , 折衷文本将定义范围缩小为第三条 ( 1 )通过机器学习方法以及基于逻辑和知识的方法开发的系统。1.2 关于向委员会授权更新人工智能系统的定义 ,附件一并删除了委员会通过委托行为对其进行更新的相应授权。相反 , 新的朗诵 6a 和 6bhave been added to clarify what should be understanded by machine learning approaches and logic - and knowledge - based approaches. To ensure that the AI Act remains flexible and future proof, a possibility to adopting implementation and uped technologies uni第 4 条.1.3 关于禁止的人工智能做法 , 在第五条折衷文本包含禁止使用 AI 进行社交评分的扩展也适用于私人行为者。此外,禁止使用利用特定人群脆弱性的人工智能系统的规定现在也涵盖了因其社会或经济状况而脆弱的人。关于禁止执法当局在可公开访问的空间中使用 “实时 ” 远程生物特征识别系统的问题,折衷案文阐明了认为这种使用对于执法目的是绝对必要的目标,因此应例外允许执法当局使用这种系统。 14954/22RB / ek极限5ENTREE.2. B1.4 关于高风险 AI 用例列表附件三, 其中三个已被删除 ( 执法部门的深度虚假检测 , 犯罪分析 , 旅行证件真实性的验证 ) , 两个已被添加 ( 关键数字基础设施和生命和健康保险 ) , 其他已进行了微调。同时 ,第 7 (1) 条进行了修改 , 以便不仅可以通过委托行为将高风险用例添加到列表中 , 而且可以删除它们。为了确保在发生此类删除的情况下充分保护基本权利 , 在第 7 (3) 条, 规定在采取委托行为之前需要满足的条件。1.5 关于将人工智能系统分类为高风险 , 折衷提案现在在高风险分类的基础上增加了一个水平层附件三, 以确保不会捕获不太可能导致严重侵犯基本权利或其他重大风险的 AI 系统。更具体地说 ,第 6 条第 3 款载有新的规定 , 根据这些规定 , 在将人工智能系统分类为高风险时 , 还应考虑人工智能系统输出对相关行动或将要采取的决定的重要性。人工智能系统输出的重要性将根据它是否纯粹是将要采取的相关行动或决定的附件来评估。2. 对高风险 AI 系统的要求以及 AI 价值链中各个参与者的责任2.1 对高风险 AI 系统的许多要求 , 如第三章第二章对提案进行了澄清和调整 , 使其在技术上更可行 , 利益相关者遵守的负担更少 , 例如在数据质量方面 , 或与中小企业应起草的技术文件有关 , 以证明其高风险人工智能系统符合要求。 14954/22RB / ek极限6ENTREE.2. B2.2 鉴于人工智能系统是通过复杂的价值链开发和分发的 , 折衷文本包括澄清责任和角色分配的变化。例如 , 在第 13 和 14 条已添加 , 以允许提供商和用户之间更有效的合作。折衷案文还旨在澄清《人工智能法》下的责任与其他立法下已经存在的责任之间的关系 , 例如相关的联盟数据保护或部门立法 , 包括金融服务部门。此外 , 新的第 23a 条更清楚地表明了价值链中的其他参与者有义务承担供应商责任的情况。3. 通用 AI 系统3.1 一个新的标题 IA已被添加以考虑 AI 系统可用于许多不同目的 ( 通用 AI ) 的情况 , 以及可能存在通用 AI 技术集成到另一个可能成为高风险的系统中的情况。妥协文本在第 4b (1) 条对高风险人工智能系统的某些要求也将适用于通用人工智能系统。然而,实施法案将在咨询和详细影响评估的基础上,并考虑到这些系统和相关价值链的具体特征、技术可行性以及市场和技术发展,而不是直接应用这些要求,而是具体规定如何将它们应用于通用人工智能系统。执行法案的使用将确保会员国适当参与,并将对如何在这种情况下适用要求保留最终决定权。3.2 此外 , 妥协文本第 4b (5) 条还包括采取进一步实施法案的可能性 , 这些法案将规定通用人工智能系统的提供商与打算将此类系统作为高风险人工智能系统投入使用或将其作为联盟市场的其他提供商之间的合作方式 , 特别是在提供信息方面。 14954/22RB / ek极限7ENTREE.2. B4. 澄清拟议的《大赦国际法》的范围以及与执法当局有关的规定4.1 在第 2 条明确提到将国家安全、国防和军事目的排除在《大赦法》的范围之外。同样,已经澄清,《人工智能法》不应适用于仅用于研究和开发目的的人工智能系统及其产出,也不适用于出于非专业目的使用人工智能的人的义务,这将不属于《人工智能法》的范围,但透明度义务除外。4.2 为了考虑到执法当局的特殊特点 , 对有关将人工智能系统用于执法目的的规定进行了一些修改。值得注意的是 , 中的一些相关定义第 3 条诸如 “远程生物特征识别系统 ” 和“ 实时远程生物特征识别系统 ” 之类的已经进行了微调,以澄清哪些情况将属于相关的禁止和高风险用例,以及哪些情况将不会。折衷提案还包含其他修改,这些修改在适当的保障措施的前提下,旨在确保执法当局在使用高风险人工智能系统方面具有适当的灵活性,或者考虑需要尊重敏感业务数据的机密性。5. 符合性评估、治理框架、市场监管、执法和处罚5.1 为了简化《人工智能法》的合规框架,折衷案文包含对合格评定程序条款的一些澄清和简化。还对有关市场监督的规定进行了澄清和简化,以便使其更加有效和易于执行,同时考虑到在这方面需要采取相称的方法。此外,。第 41 条已经过彻底审查 , 以限制委员会在通过实施法案方面的酌处权 , 这些法案为高风险人工智能系统和通用人工智能系统的要求制定了共同的技术规范。 14954/22RB / ek极限8ENTREE.2. B5.2The compromit text also substantially modifies the provisions concerning the AI Board ('the Board'), with the objectives to ensure its greater automy and to strengthen its role in the governance architecture for the AIA. In this context,第 56 和 58 条经修订,以便加强理事会的作用,使其能够更好地支持成员国执行和执行《人工智能法》。更具体地说,委员会的任务已经延长,其组成已经明确。为了确保利益攸关方参与与实施《人工智能法》有关的所有问题,包括制定实施和委托法案,理事会增加了一项新要求,即设立一个常设分组,作为广泛利益攸关方的平台。还应建立另外两个常设的市场监督机构和通知