您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[NIST]:NIST发布最新版人工智能风险管理框架草案(英) - 发现报告
当前位置:首页/其他报告/报告详情/

NIST发布最新版人工智能风险管理框架草案(英)

2022-08-18-NIST巡***
NIST发布最新版人工智能风险管理框架草案(英)

人工智能风险管理框架:第二稿2022 年 8 月 18 日审稿人须知:征集评论和投稿人工智能风险管理框架NIST 人工智能风险管理框架(AI RMF 或框架)的第二稿建立在 2022 年 3 月的初始版本和 2021 年 12 月的概念文件之上。它反映并整合了收到的建设性反馈。AI RMF 旨在自愿使用,以解决 AI 产品、服务和系统的设计、开发、使用和评估中的风险。人工智能研发以及标准格局正在迅速发展。出于这个原因,人工智能 RMF 及其配套文件将随着时间的推移而发展,并反映新的知识、意识和实践。 NIST 打算继续与利益相关者合作,以使框架与 AI 趋势保持同步,并根据 AI RMF 的使用反映经验。最终,AI RMF 将以多种格式提供,包括在线版本,以提供最大的灵活性。AI RMF 草案的第 1 部分解释了开发和使用该框架的动机、其受众以及 AI 风险和可信度的框架。第 2 部分包括 AI RMF 核心以及对配置文件及其使用的描述。NIST 欢迎对本草案提供反馈,以便为 AI RMF 的进一步发展提供信息。请在 2022 年 9 月 29 日之前通过电子邮件将评论发送至 AIframework@nist.gov。NIST 收到的所有评论都将公开,因此不应包含个人或敏感信息。在 2022 年 10 月 18 日至 19 日举行的第三次 AI RMF 研讨会的讨论中,也欢迎提供反馈。NIST 计划在 2023 年 1 月发布 AI RMF 1.0。 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日2人工智能风险管理框架 (AI RMF) 手册随着 AI RMF 第二稿的发布,NIST 征求对草案的评论伴侣 AI RMF 剧本. Playbook 通过在 AI 系统的设计、开发、使用和评估中纳入可信度考虑因素,提供框架用户可以采取的行动来实施 AI RMF。 Playbook 草案基于 AI RMF 的第二稿。它包括“治理”和“地图”的示例操作、参考和补充指南——四个建议功能中的两个。 “测量”和“管理”功能的草稿材料将在稍后发布。与 AI RMF 一样,Playbook 旨在供自愿使用。组织可以根据自己的需要和兴趣使用这些信息s。NIST 鼓励对此草案的反馈和贡献。 Playbook 是一种在线资源,临时托管在 GitHub Pages 上。最初的 AI RMF Playbook 将于 2023 年 1 月发布。它旨在成为一个不断发展的资源,感兴趣的各方可以提交反馈和建议的补充内容以滚动方式进行裁决。鼓励个人评论:1.它作为 AI RMF 的补充资源的相对有用性。2.该指南是否可操作以满足每个 AI RMF 功能,尤其是与组织规模相关的功能。3.为即将推出的第一个在线版本建议的演示替代方案,以提高可用性和有效性。反馈可以作为评论提供,也可以作为特定的行编辑添加或修改提供。 NIST 欢迎有关包括对现有资源或新资源的引用以帮助 AI RMF 用户的建议。可以随时为 Playbook 提出意见,并将每半年进行一次审核和整合。 NIST 正在通过电子邮件请求第一轮评论AIframework@nist.gov到 2022 年 9 月 29 日。在 2022 年 10 月 18 日至 19 日及以后举行的第三次 AI RMF 研讨会的讨论中,也将欢迎发表评论。 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日3NIST 值得信赖和负责任的 AI 资源中心NIST 值得信赖和负责任的 AI 资源中心将托管 AI RMF、Playbook 和相关资源,为实施 AI RMF 以及更广泛地推进可信赖的 AI 提供指导。附加指南的贡献——这将构成资源中心内容的大部分– 随时欢迎。贡献可能包括 AI RMF 配置文件、解释性论文、文档模板、测量和评估方法、工具包、数据集、政策或建议的 AI RMF 与其他资源的人行横道– 包括标准和框架。最终,贡献可能包括 AI RMF 案例研究、对框架采用和有效性的审查、教育材料、与可信 AI 管理相关的其他技术形式的技术指导,以及其他实施资源。人工智能资源中心预计将包括一个标准中心和一个指标中心,以及一个术语知识库和相关的技术和政策文件。提供的指导可能会解决包括但不限于以下问题:一个行业或部门如何利用该框架小型组织如何使用该框架如何落实框架的利益相关者参与要素(包括让外部利益相关者社区参与评估风险的做法,以及在产生人工智能的组织团队中推进多样性、公平和包容性考虑)AI RMF 如何用于采购或采购活动在 AI 生命周期的一个或多个部分集成团队的方法该框架如何与其他人工智能风险管理指南一起使用该框架如何帮助解决安全问题,包括防范对人工智能系统的对抗性攻击评估人工智能系统风险的社会技术方法增强对人工智能系统风险的人工监督的技术将贡献纳入 AI RMF 手册和 NIST 可信赖和负责任的 AI 资源中心的标准为了被 NIST 考虑纳入 Playbook 或 NIST 可信赖和负责任的 AI 资源中心,资源必须在 Internet 上公开可用。 NIST 欢迎来自营利性实体的免费资源。来自非营利实体的付费资源也符合纳入的基本标准。如果资源符合这些标准,则应将资源描述发送至 AIframework@nist.gov。NIST 可能在其指南或 NIST 可信赖和负责任的 AI 资源中心中包含商业实体、设备或材料,以支持框架的理解和使用。此类标识并不意味着 NIST 的推荐或认可,也不意味着实体、材料或设备一定是为此目的最好的。 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日4更新时间表:AI RMF 将采用两个数字的版本控制系统来跟踪和识别在其整个开发过程中做出的重大变化和关键决策。第一个数字将代表 AI RMF 及其所有伴随文档的生成。 AI RMF 生成将在对框架进行重大修订时增加。所有 AI RMF 文档的最新版本将具有相同的世代标识符。次要修订将在代号后使用“.n”进行跟踪。对文档进行任何编辑时,次要修订标识符都会增加。 AI RMF 资源可能具有不同的次要修订标识符。在较高级别上,所有更改都将使用版本控制表进行跟踪,该表标识历史记录,包括版本号、更改日期和更改描述。 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日5目录第1部分1.概述 11.1.值得信赖和负责任的人工智能 11.2.AI RMF 2 的目的1.3.从何处获取更多信息 32.观众 43.框架风险 73.1.了解风险、影响和危害 73.2.人工智能风险管理的挑战 84.人工智能风险与可信度 104.1.有效可靠 134.2.保险箱 134.3.公平 – 偏差得到管理 144.4.安全和弹性 144.5.透明和负责任的 154.6.可解释的和可解释的 154.7.隐私增强 165.AI RMF 16 的有效性第2部分6.人工智能 RMF 核心 176.1.治理 186.2.地图 206.3.措施 236.4.管理 257.AI RMF 配置文件 26附录附录 A:图 1 中 AI 参与者任务的描述 27附录 B:AI 风险与传统软件风险有何不同 30 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日1AI RMF 将 AI 系统称为工程或基于机器的系统,它可以针对一组给定的人为定义的目标,生成影响真实或虚拟环境的预测、建议或决策等输出。人工智能系统旨在以不同程度的自治运行(改编自:经合组织关于人工智能的建议:2019;ISO/IEC 22989:2022)。人工智能风险管理框架第 1 部分:动机1. 概述1.1. 值得信赖和负责任的人工智能人工智能 (AI) 能力的显着增长带来了广泛的创新,这些创新有可能使我们社会和经济的几乎所有方面受益——从商业和医疗保健到交通和网络安全。人工智能技术通常用于通过通知、建议或简化任务来实现有益的影响。管理人工智能风险与管理其他类型技术的风险没有什么不同。任何软件或基于信息的系统的风险都适用于人工智能,包括与网络安全、隐私、安全和基础设施相关的问题。与这些领域一样,人工智能系统的影响可以分为长期或短期、高概率或低概率、系统性或局部性以及高或低影响。然而,人工智能系统带来了一系列需要具体考虑和方法的风险。人工智能系统可以放大、延续或加剧不公平的结果。人工智能系统可能会表现出紧急特性或对个人和社区造成意想不到的后果。数据交互的有用数学表示驱动人工智能系统行为的因素尚不完全清楚,这使得当前衡量风险和导航风险收益权衡的方法不足。人工智能风险可能来自用于训练人工智能系统的数据、人工智能系统本身、人工智能系统的使用或人与人工智能系统的交互。虽然关于什么使人工智能技术值得信赖的看法不同,但有一些确定的可信系统的主要特征。值得信赖的人工智能是有效和可靠、安全、公平和偏见得到管理、安全和有弹性、负责任和透明、可解释和可解释,以及增强隐私。人工智能系统本质上是社会技术的,这意味着它们是设计、开发和使用中涉及的复杂的人类、组织和技术因素的产物。许多值得信赖的人工智能特征——例如偏见、公平、可解释性和隐私——与社会动态和人类行为直接相关。人工智能的风险和收益可能来自技术方面的相互作用以及与系统如何运作相关的社会技术因素 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日2被使用,它与其他人工智能系统的交互,谁操作它,以及它被部署到的社会环境。负责任地使用和实践人工智能系统是人工智能系统可信度的对应物。人工智能系统本身并没有坏处或风险,通常是上下文环境决定了是否会发生负面影响。 AI 风险管理框架 (AI RMF) 可以帮助组织加深对他们构建和部署的 AI 系统的环境如何与个人、团体和社区进行交互和影响的理解。负责任的人工智能使用和实践可以:» 协助 AI 设计人员、开发人员、部署人员、评估人员和用户更批判性地思考上下文和潜在或意外的负面和正面影响;» 被利用来设计、开发、评估和使用人工智能系统,并考虑到影响;和» 预防、抢占、检测、减轻和管理人工智能风险。1.2.AI RMF 的目的通过了解和管理人工智能系统的风险来培养信任,将有助于维护公民自由和权利,提高安全性,同时为创新创造机会并充分发挥这项技术的潜力。 AI RMF 旨在解决 AI 系统特有的挑战,并鼓励和装备不同的 AI 利益相关者主动和有目的地管理 AI 风险。该框架描述了管理各种类型、应用程序和成熟度的人工智能风险的过程——无论行业、规模或对特定类型技术的熟悉程度如何。 AI RMF 不是在其他指南中重复信息,而是旨在填补特定于 AI 风险的空白。鼓励 AI RMF 的用户通过当前可用的指南解决非 AI 特定问题。AI RMF 是一个自愿框架,旨在提供一个灵活、结构化和可衡量的流程,以在整个 AI 生命周期中前瞻性地和持续地解决 AI 风险。它旨在通过改进理解、检测和抢占,帮助组织管理与人工智能系统的设计、开发、部署、评估和使用相关的企业和社会风险。使用 AI RMF 可以帮助组织、行业和社会了解和确定其可接受的风险水平。AI RMF 不是一个清单,它不打算单独使用。组织可能会发现将 AI RMF 纳入企业风险管理的更广泛考虑中很有价值。AI RMF 不是合规机制。它与法律和法规无关,因为人工智能政策讨论是实时和不断发展的。虽然风险管理实践应纳入并符合适用的法律和法规,但本文件无意取代现有的法规、法律或其他规定。研究界可能会发现 AI RMF 在评估可信赖和负责任的 AI 的各个方面以及相关影响方面很有用。 AI RMF 第 2 稿征求公众意见,截止日期为 2022 年 9 月 29 日3通过在 AI RMF 中应用建议,组织将能够更好地管理、映射、衡量和管理 AI 的风险。使用 AI RMF 可以减少负面影响的可能性和程度,并增加个人、团体、社区、组织