您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[毕马威]:解读欧盟人工智能法案 - 发现报告

解读欧盟人工智能法案

信息技术2024-03-02-毕马威D***
AI智能总结
查看更多
解读欧盟人工智能法案

了解AI法案的影响以及如何应对 毕马威。有所作为。 毕马威国际| kpmg. com / trustedai 人工智能(AI)正在为社会和企业提供新的利益,旨在改变工作场所和主要行业。 简而言之,这场竞赛正在拥抱人工智能和自动化的非凡和不断发展的力量。 组织领导应根据AI法案,公司品牌,价值观和风险承受能力推动举措,以促进负责任的使用 这可以帮助促进道德发展、监管合规、风险缓解和利益相关者信任。 人工智能的开发和使用应注重安全和道德,将技术进步转化为社会的积极力量。《欧盟人工智能法案》将有助于促进创新,同时保护最终用户。 人工智能法案旨在规范人工智能的道德使用 些义务不仅会影响用户,还会影响所谓的AI系统的“提供者”。人工智能法案中的“提供者”一词涵盖了人工智能系统的开 和性能的高影响力GPAI模型将面临更严格的义务。这种方法将有助于减轻由于这些模型的广泛使用而可能出现的系统性风险 AI拥有巨大的希望,可以扩大可实现的范围,并为我们的利益影响 通过我们的镜头:AI法案的潜在影响 在欧盟运营的提供AI产品,服务或系统的业务。该法律在欧盟引入了AI的定义,按风险对AI系统进行了分类,对AI系统提出了广泛的要求和必要的保障机制,并确立了透明度义务。 高风险人工智能系统的市场监控。 通过监管沙箱激发创新,中小型企业可以在无需立即进行监管审查的情况下测试其AI系统。 建立有效的监督和执行机制。 它的目的是做什么? 促进标准、行为守则和认证的统一。 为AI系统提供更大的透明度。 欧共体的目标是在促进人工智能发展和促进创新与有效管理新兴风险之间取得平衡。这反映在提案的目标中: 禁止在AI系统中出现不可接受的风险。 为参与者创造一个公平的竞争环境。 确保欧盟市场上的人工智能系统是安全的,并尊重公共权利和价值观。 保障基本权利并为居住在欧盟的个人提供法律确定性。 防止使用潜意识或不道德的技术,可能影响或扭曲一个人的行为,从而对该人或另一个人造成伤害。 提供法律确定性,以促进AI系统的投资和创新。 尽量减少可能导致不公平或不充分结果的偏见。 加强治理和有效执行道德和安全要求。 对您的AI系统进行分类并了解相关风险。 限制由于年龄,残疾,政治见解或其他因素而对弱势群体或群体的剥削。 为合法、安全、可信的人工智能应用促进单一欧盟市场的发展,同时防止市场分散。 对高风险AI系统(强制性风险管理、数据治理、技术文档等)提出更严格的要求。 Given the broad definition of AI and the current pace of provedication, organizations should take a overtual approach. 这允许建立特定的最低要求,以解决与人工智能系统相关的风险和问题,而不会过度 人工智能系统开发或用于军事目的。 合作进行有目的的创新和开发,风险管理和AI系统的治理,以实现对AI法案的遵守。 限制或阻碍技术发展或不成比例地增加与将人工智能系统投放市场有关的成本。 非欧盟国家的公共当局或国际组织在国际协定框架下用于与欧盟进行执法或司法合作时使用的人工智能系统。 人工智能系统的开发和使用的唯一目的是科学研究和发现。 它将如何执行,处罚是什么 欧共体通过建立人工智能委员会和专家组,提出了一种执行人工智能提供商要求的结构。双方都在欧盟层面负责: 人工智能系统在投放市场或投入使用之前处于研究、测试和开发阶段(包括免费和开源的人工智能组件)。 欧盟内外的大多数组织都在开发或使用AI系统,这些系统可能符合《AI法》的范围。但是,鉴于实施期限较短,组织应该对他们正在开发和/或部署的AI系统以及如何衡量AI法的要求有深刻的了解。 促进与国家监管当局的有效合作。 人们将AI用于个人用途。 与执行《通用数据保护条例》(GDPR)一样,欧共体也明白,在欧洲市场销售其产品的非欧洲实体应受到与成员国类似的监管。预计欧盟将成为全球人工智能标准的中心,在美国甚至英国都存在分歧。与GDPR一样,《人工智能法案》将产生域外影响。 每个成员国都应建立或指定一个国家主管部门,以确保法规的实施并维护其活动的客观性和公正性。 任何将人工智能系统投放市场或在欧盟范围内投入使用的提供商,无论地点如何。 欧盟拟议的法规可能会有一个 位于欧盟以外的任何AI系统提供商,其系统输出可以或打算在欧盟使用。 对所有利用AI的强大力量的组织产生深远的影响,不合规的后果可能从限制市场准入到取决于不合规水平的重大罚款。 谁在您的组织中受到影响? 位于欧盟的任何AI系统提供商。 管理合规性,数据治理以及AI技术的开发,部署和使用的高管可能会看到他们的角色和职责受到AI法案的影响。除了组织中的高级角色外,董事会和各个治理委员会也可能 罚款范围可能从3500万 任何进口商或分销商将人工智能系统投放市场或在欧盟范围内提供。 欧元或全球营业额的7%至750万欧元或 营业额的百分比,取决于公司的侵权行为和规模。 产品制造商将带有AI系统的产品投放市场或以其名称或商标在欧盟内投入使用。 欧盟内部AI产品和服务的用户。 人工智能法案中概述的大多数义务预计将在2026年上半年生效。禁令预计将于2024年底生效,有关通用人工智能(GPAI)的义务预计最早将于2025年生效。GPAI是指执行通常适用的功能的AI系统,例如图像和语音识别,音频和视频生成。 最终的AI法案将全部生效。 《人工智能法案》是一份全面的文件,旨在帮助提供人工智能的明确定义,使欧盟范围内的人工智能与其他欧盟法律法规保持一致。人工智能法案的主要目标是建立一个统一和横向的法律框架,以促进人工智能系统的采用,同时提供高水平的保护,防止其有害影响。该框架可以帮助建立对AI技术的信任,并使个人和组织对使用它有更大的信心。 比最初预期的,大大超出了我们最近对高级和生成AI的理解。AI法案的定义范围有几个 The AI Act applies a broad definition of an AI system derived from the recent updated Organisation for Economic Co -operation and Development (OECD) definition. While the AI Act ’ s text is not yet public available, the OECD definition is as follows: 人工智能系统的豁免,例如用于军事或国防目的的系统,以及免费和开源系统的有限豁免。 人工智能法案定义了一个框架来理解与人工智能相关的风险。它根据人工智能系统的潜在风险对其进行分类,并根据它们捕获的数据以及对这些数据采取的决策或行动将它们分为不同的类别。 “AI系统是一个基于机器的系统,对于明确或隐含的目标,从它接收的输入中推断如何生成可能影响物理或虚拟环境的输出,如预测、内容、建议或决策。 人工智能系统在部署后的自主性和适应性水平各不相同。” EU obligations will vary depending on the category of AI being used. While an agreement on the context has been reached, the final text of the regulations is not yet available. However, the following sesses summarized the obligations under the AI Act, based on public可用信息。 这个定义是故意保持广泛的,以涵盖整个范围,从专注于单一用例的更简单的技术和系统到深度学习和生成AI的高级应用。人工智能法案的范围变得更加广泛 请注意,AI法案的最早版本将AI系统定义为使用以下技术和方法之一开发的系统: (a)机器学习方法,包括有监督,无监督和强化学习,使用多种方法,包括深度学习。 (b)基于逻辑和知识的方法,包括知识表示,归纳(逻辑)编程,知识库,推理和演绎引擎,(符号)推理和专家系统。 (c)统计方法、贝叶斯估计、搜索和优化方法。 欧洲委员会。(2021年4月21日)。欧洲议会和理事会法规的提案,“制定人工智能协调规则(人工智能法)和修订某些联盟立法法”。 AI法案采用基于风险的方法 不可接受风险的AI系统示例行为操纵。 违反联盟价值观,如基本权 用于执法的实时远程生物识别。 评估信贷,健康或人寿保险或公共福利的资格。 职位申请分析或候选人评估。 有限风险AI系统的示例: 与消费者互动的AI系统。 生成AI *:生成或操作内容(图像,音频或视频)的AI系统。 最小风险AI系统的示例:垃圾邮件过滤器。 *生成AI和基础模型的进一步具体义务将适用于这种基于风险的方法之外 风险不可接受的AI系统 备和电梯。2)人工智能系统落入必须在欧盟数据库中注册的特定区域。这些包括: 的,因此它们必须遵守最严格的监管要求: 涵盖哪些AI系统?允许操纵、剥削和社会控制实践的人工智能系统被视为构成不可接受的风险。这一类别禁止人工智能用于以下目的: 充分的风险管理,以识别、评估和减轻人工智能系统生命周期中的风险。这项义务实际上需要实施专门的风险管理系统和完整的风险评估,这些风险评估必须持续完成;它们必须是活文件。 关键基础设施,如公用事业的供应。 教育和职业培训,例如,自动评分或排除考试。 伤害或可能伤害AI用户或其他人的操纵。 就业,工人管理和自营职业,例如,自动招聘和申请分类。 利用特定群体的脆弱性。 值得注意的是,除非包括敏感的个人数据,以确保输入和输出不具有歧视性。 社会评分导致社会环境中有害或不利的待遇。 获得基本的私人和公共服务和福利(例如医疗保健),自然人的信誉评估以及与人寿保险和健康保险有关的风险评估和定价。 技术文件必须证明遵守义务,并允许进行合规评估。 不分青红皂白地刮擦面部图像。 工作场所和教育中的情绪识别软件(有一些例外)。 记录事件以确保系统功能的可追溯性。 可能会干扰基本权利的执法系统,例如有关潜在罪犯的自动风险评分,深度伪造检测软件和证据可靠性评分。 使用AI根据种族,政治观点或宗教信仰等敏感特征对人员进行分类。 记录跟踪和监测高风险情况,符合标准,并确保人工智能系统的输出不会导致任何歧视性影响。 移民,庇护和边境管制管理,例如,旅行证件的真实性验证以及签证和庇护申请检查。 对个人的预测性警务(根据个人特征对未来犯罪进行风险评分)。 最低记录必须包括使用情况、数据和人员识别。 例如,司法和民主程序,法律解释工具,以协助司法当局。 在欧盟数据库中注册高风险AI系统。 人的远程生物识别(部分禁止,但执法部门有一些例外)。 大多数组织都使用这些高风险的AI系统,例如用于招聘目的的AI。 与此类别有关的义务是什么?由于此类AI系统具有不可接受的风险,因此禁止使用它们。 同样重要的是要注意,委员会可以通过委托行为为高风险人工智能系统类别增加更多用途。本报告的“后续步骤”部分对此进行了进一步讨论。 涵盖哪些AI系统?对安全或基本权利产生负面影响的人工智能系统将被视为高风险,并将分为两部分 类别:1)用于产品下降的AI系统 部署人员的义务是什么? 有适当数字格式的说明。 遵守数据保护影响评估的GDPR义务。 高风险人工智能系统的部署人员,包括提供基本服务的公共机构和私人实体,如银行、保险公司、医院和学校,承担确保负责任使用的具体义务。 验证是否符合AI法案,并确保所有相关文档可用告知个人高风险人工智能的潜在用途。 适当水平的准确性、健壮性和网络安全。 高风险人工智能系统将接受合格评