您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[2024年全球人工智能治理大会]:欧盟人工智能法案全面3治理计划 - 发现报告

欧盟人工智能法案全面3治理计划

AI智能总结
查看更多
欧盟人工智能法案全面3治理计划

治理计划 实际遵循欧盟人工智能法案强制要求的步骤 欢迎及介绍 奥利弗·帕特尔,AIGP,CIPP/EAI治理学院和研究成果咨询委员会成员,IAPP企业人工智能监管负责人,阿斯利康有限公司 成员,经合组织专家人工智能风险小组责任 会议大纲 I.高风险人工智能系统要求第二部分提供者和部署者对某些人工智能系统的透明度义务III. 通用人工智能模型IV. 欧盟层面的AI治理V.实际步骤以准备欧盟人工智能法案第VI节:问题与答案 I. 高风险人工智能系统要求 I. 高风险人工智能系统要求 I. 高风险人工智能系统要求 基本权利影响评估 •仅适用于高风险AI系统列于附件III(旁白)来自关键基础设施)。 • 必须由以下部署者完成: • 由公共法律治理的机构• 由私人实体提供的公共服务• 使用人工智能系统评估信用价值和信用评分的部署者 • 使用人工智能系统进行健康和人寿保险的风险评估和定价 I. 高风险人工智能系统要求 人工智能价值链 •任何分销商、进口商、部署者或其它第三方应被视为提供商如果以下条件成立,则高风险人工智能系统的风险: 他们将自己的名称或商标置于已上市的高风险AI系统上;或他们对一个高风险人工智能系统进行了重大修改;或他们修改了非高风险的人工智能系统的预期用途。 •分销商并且进口商高风险人工智能系统必须验证那一个高风险人工智能系统符合人工智能法案的要求要求(例如,检查CE标志)。 II. 提供方的透明度义务部署特定人工智能系统的实施者 范围与适用性 •人工智能系统,其中与个人互动或者生成内容有时被称为“低风险”人工智能系统。 •这些要求适用于高风险人工智能系统,以及所有其他高风险人工智能系统的要求。 •这些独立要求也适用于那些不被归类为高风险的人工智能系统。 II. 提供方的透明度义务部署特定人工智能系统的实施者 人工智能系统与人们直接交互 •供应商必须以某种方式开发AI系统,以确保通知终端用户他们正在与一个人工智能系统互动。 • 例外: • 公安机关使用的AI系统用于检测、预防、调查或起诉犯罪行为。• 除非对一个“ reasonably well-informed, observant person”来说显而易见。 II. 提供方的透明度义务部署特定人工智能系统的实施者 利用情绪识别或生物识别分类人工智能系统 •部署人员必须通知个人关于人工智能系统的使用。 • 异常: • 适用于检测、预防或调查犯罪行为的AI系统,需受适当的安全保障。 II. 提供方的透明度义务部署特定人工智能系统的实施者 AI系统生成或操作内容 •部署人员必须披露that '深度伪造内容(例如,图片、音频、视频(audio, video)由人工智能生成。适用有限例外。 •部署者必须披露:人工智能生成文本。关于事项,公众利益,除非有人工审核,否则为AI生成。 •供应商必须确保人工智能输出(例如,音频、图像、视频或文本)是可检测的如AI生成。 第三部分:通用人工智能模型 关键概念 •通用人工智能模型具有胜任的能力执行各类不同的任务。 •通用人工智能模型与系统性风险具有“高影响力能力”的模型(即用于计算的量)训练,以FLOPs(浮点运算次数)衡量。 •人工智能系统的基本组成部分,但本身不是人工智能系统。与高风险人工智能系统的概念截然不同。 第三部分:通用人工智能模型 关键要求:通用人工智能模型 供应商必须保持广泛的工程技术文档。 •设立一项政策以符合欧盟版权法。 • 发布用于训练数据的详细摘要。 • 在欧盟(如适用)中任命“授权代表”。 第三部分:通用人工智能模型 关键要求:具有系统性风险的通用人工智能模型除之前的滑坡之外) • 提供商必须执行最先进的模型评估。 •通知委员会并评估/减轻潜在的系统性风险。 跟踪并报告任何严重事件。 确保充分的网络安全保护。 请注意,要求和类别并非互斥。 •一个人工智能系统可以是两者高风险并且受限于单独的透明度要求,或者非高风险且仅有受制于(the)透明度要求。 •同样,通用人工智能模型可以是高风险AI的一部分。系统、独立,或者作为非高风险人工智能系统的一部分。 *需要透明度的AI系统,它们相互作用直接与个人交流或生成/操控内容 人工智能法案的要求将对人工智能产生何种影响治理 IV. 欧盟层面的AI治理 IV. 欧盟层面的AI治理 • 每个成员国应设立或指定为国家主管当局至少一个通知当局并且至少一个市场监管机构就本规定而言 V. 为欧盟人工智能法案做准备的实际步骤 • 企业人工智能治理的10大支柱 • 5个问题以评估人工智能项目的风险 • 5个需要向人工智能提供商提出的问题 • 人工智能治理专业人士的顶级建议 企业人工智能治理的10大基石 企业人工智能治理的10大基石(continued) 五个问题以风险评估人工智能项目 1我们通过人工智能解决什么问题?有哪些应用案例? 2使用了哪些数据用于AI的训练和发展? 3AI系统生成了哪些输出? 4这些输出将如何被使用? 5如果人工智能的输出存在缺陷、不准确或存在偏见,其影响是什么? 5 个问题要问人工智能提供商 1您的AI治理方法是什么?以及如何确保符合欧盟AI法案? 2您如何缓解关键风险(例如,偏差、准确性、可解释性)? 3您可以提供“使用说明书”和更广泛的技 4您会使用我们的数据来训练、重新训练或改进您的模型和服务吗? 5您将提供任何赔偿吗? 顶级建议:人工智能治理专业人士的要点 •学习说……人工智能和数据科学的语言 进一步资源 •跟随奥利弗·帕特尔,CIPP/E在领英上关于更多人工智能治理的政策内容 • OECD资源:•美国国家标准与技术研究院(National Instituteof Standards and Technology)人工智能风险管理框架及战术手册资源• 可信人工智能的工具和指标目录• 人工智能风险评估框架 •IAPP 人工智能治理中心 问题与解答 奥利弗·帕特尔,AIGP,CIPP/EAI治理学院和研究成果咨询委员会成员,IAPP企业人工智能监管负责人,阿斯利康有限公司 成员,经合组织专家人工智能风险小组责任 事情进展如何?(我们真的想了解) 您喜欢这次会议吗?我们能否以某种方式改进它?请告诉我们您的看法,通过填写演讲者评估表。 2. 在搜索栏中输入 IAPP AIGG24(大小写和空格敏感)。5.一旦回答完所有三个问题,点击“完成”。4.查找此会议。在描述中点击“评价此会议”。1. 打开Cvent活动应用。3.轻触底部导航栏上的“安排”按钮。