您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[2024年全球人工智能治理大会]:欧盟人工智能法案综合4标准和合格评定方案 - 发现报告

欧盟人工智能法案综合4标准和合格评定方案

AI智能总结
查看更多
欧盟人工智能法案综合4标准和合格评定方案

培训时间:6月6-7日会议 4-5 月 #AIGG24 # 标准和合格评定方案 欢迎及介绍 安斯加·科伊内,博士EY全球人工智能伦理与监管领导者 项目大纲 第三部分合格评定 i.自我及第三方评估ii.高风险系统注册iii.协调一致的标准第四章通用规格动词认证副词从合格评定中豁免vii. GPAI 及系统性风险实践规范代码第八部分 自愿行为准则 第四章 问题与答案V.闭幕词 定义 合格评定 一项评估,以确保产品、服务、过程、系统或人员在投入市场之前,必须满足相关要求。 合格评定 基于评估内部控制 第三方评估 评估报告独立已通知的机构批准到执行第三方评估由一个国家“通知”当局. A自我评估由提供者提供,无需涉及已批准的第三方评估机构(通知机构) 自我评估或第三方评估? 基于内部控制的合规性评估程序 供应商: •验证了已建立的质量管理体系是符合第17条要求验证了包含在其中的信息技术文档到评估人工智能系统的合规性与相关高风险人工智能系统的基本要求•验证了以下几点:设计和开发过程关于人工智能系统及其市场后监测如第61条所述是与技术文档一致 第三方检测机构的评估 通知机构: •评估文档of the质量管理体系并且,为确保质量管理体系始终保持充分性的程序并且有效 ••直接评估质量管理体系审视了技术文档•可能执行有限的审查训练、验证和测试数据或请求更多证据 The提供商必须通知关于任何重大的转换为QRM或AI系统可能需要进行重新评估。 关键信息,提供方需要提交的内容:高风险人工智能系统的注册 •描述如下:预定用途并且关于组件并且功能通过这个人工智能系统支持 •基本而简洁的描述信息由以下内容使用:系统(数据,输入)及其操作逻辑 电子指令用于系统中的内容不予提供((shall not be provided for syste执法和移民、庇护和边境控制管理领域(areas of law enforcement and migration, asylum and bo 关键信息应提交给部署AI系统的公共机构 •一份关于发现结果的总括基本权利影响评估•一份关于的摘要数据保护影响评估执行 关键信息应由提供者提交的内容。得出结论:他们的附件III人工智能系统不属于高风险类别。 •人工智能系统商标名称以及任何其他清晰明确的参考允许AI系统的识别与可追溯性•描述如下:预期用途AI系统简要摘要AI系统作为不可考虑的基础。高风险•人工智能系统状态(市场上,不再服务,已召回)•欧盟成员国中已部署人工智能系统的国家市场 和谐标准 欧洲委员会已批准的欧洲标准,作为达成目标的手段。展示产品、服务或流程遵守相关的欧盟立法。 欧洲标准局发布标准化请求的要求 •委员会应发布标准化请求,涵盖本法规的所有要求。 •标准化请求还应要求提供可交付成果。报告并且文件编制流程提高人工智能系统资源绩效例如能源减少以及其他资源消耗的 高-在AI系统生命周期中对其风险进行管理和控制。节能通用人工智能模型的开发 欧洲委员会将发布标准化要求(2023年11月草案) •风险管理系统•治理和数据集质量•通过日志功能进行记录维护•用户透明度和信息提供•人工监督•精度规格•稳健性规范•网络安全规范•质量管理体系,适用于人工智能系统提供商,包括上市后监测流程。•合格评定#AIGG24 标准发展组织 一些由ISO/IEC标准候选者确定的CEN-CENELC JTC21 ••••••••••ISO/IEC CD 42001. — 人工智能管理系统。ISO/IEC CD TS 6254 — 机器学习和人工智能系统可解释性的目标和方法。ISO/IEC AWI TS 8200 — 自动化人工智能系统的可控性ISO/IEC AWI 12792 — 人工智能系统透明度分类法ISO/IEC TR 24027 — 人工智能系统和人工智能辅助决策中的偏差ISO/IEC 27xxx 系列关于网络安全的规范ISO/IEC TR 24368:2022 : — 伦理和社会关注概述。ISO/IEC 38507:2022: 组织使用人工智能的治理影响ISO/IEC CD 42005. — 人工智能系统影响评估。需求对于尸体提供审计并认证管理系统 通用规范 欧盟委员会发布的详细实践规则,概述了特定类型设备或系统应该如何遵守某些要求。 原因促使欧盟委员会发布通用规范 •标准化请求未接受通过任何欧洲标准化组织•针对该请求的协调一致标准是无在截止日期内交付设定相关协调一致的标准未充分解决基本权利关切•标准化和谐标准不遵守要求。 背离符合性评估程序 •任何市场监察机构可能授权特定高风险人工智能系统在成员国之内,对于非常特殊的原因关于公共安全或保护个人生命和健康、环境保护和保护关键工业和基础设施资产。 •该授权应为在有限期间而在必要的合格评定程序正在进行的同时执行完毕。 关于GPAI模型的透明度义务 •TheAI办公室应鼓励并促进制定实践准则以促进有效实施检测和标记人工生成或操纵内容. •委员会是授权审批这些代码实践. •如果认为代码不足,委员会将采取行动。有权指定共同规则对于实施那些义务。 《系统性风险实践准则 GPAI》 人工智能办公室和人工智能委员会应旨在确保:实践规范涵盖: •内容用于训练•系统风险的类型和性质•评估与管理系统性风险,包括文件记录所有受影响方的需求和利益 自愿行为守则(非高风险)人工智能系统风险 •预见在欧盟可信人工智能伦理指南中的要素 ••••提升人工智能素养促进人工智能系统的包容性和多样性设计评估和预防人工智能系统对...的负面影响易受伤害的个人或群体,包括作为关于残疾人士的可达性,以及关于性别平等评估并最小化人工智能系统对的影响环境可持续性 人工智能法案执行时间表——与所需时间相关联开发代码和标准 情况如何?(我们真的很想知道) 您是否喜欢这个会议?我们能否在哪些方面做得更好?请通过填写演讲者评估表告诉我们。 1.打开Cvent活动应用。 请输入IAPP AIGG24(区分大小写和空格)到搜索栏中。 4. 寻找此会议。在描述中点击“为本次会议评分”。 5. 回答完所有三个问题后,点击“完成”。