您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[东盟]:东盟 Al 治理与伦理指南 - 发现报告

东盟 Al 治理与伦理指南

信息技术2024-02-08-东盟X***
AI智能总结
查看更多
东盟 Al 治理与伦理指南

AI治理与伦理 执行摘要03A.导言061.Objectives082.Assumptions083.目标受众094.Definitions09B.框架的指导原则101.透明度和可解释性112.公平与公平123.安保和安全134.以人为本145.隐私和数据治理146.问责制和廉正性157.鲁棒性和可靠性16C.人工智能治理框架171.内部治理结构和措施182.确定人类参与的水平在AI增强决策233.运营管理274.利益相关者互动和沟通41 D.国家一级的建议46E.区域一级的建议53F.Conclusion58 附件A:AI风险影响评估模板60 附件B:使用案例731. Aboitiz Group742. EY763.Gojek784.UCARE. AI805.新加坡智能国家集团(SNG)836.新加坡教育部85 执行摘要 指南是关于什么的 本文件为该地区希望在商业和非军事或两用应用中设计、开发和部署传统人工智能技术的组织提供实用指南。本指南的重点是鼓励东盟内部的协调,并促进不同司法管辖区人工智能框架的互操作性。它还包括关于国家和区域一级举措的建议,该地区政府可以考虑实施这些举措,以负责任地设计、开发和部署人工智能系统。 框架的指导原则 4个关键组件 内部治理结构和措施 •多学科的中央管理机构,如人工智能道德咨询委员会,以监督AI治理工作•制定标准、指南、工具和模板,帮助组织负责任地设计、开发和部署AI•明确规定参与负责的AI设计、开发和/或部署的人员的角色和职责 确定人类参与AI增强决策的水平 •进行相关风险影响评估以确定风险水平 •基于风险水平的人类参与的三大类-人在循环,人在循环中,人在循环中 •降低风险有助于在该地区建立对接受和更多使用AI技术的信任 运营管理 •AI系统生命周期由多个阶段组成,通常是一个迭代过程•在开始任何数据收集和处理或建模之前,进行基于风险的评估•降低由于代表性不足的培训、测试和验证数据集导致的不公正偏见的风险 利益相关者互动和沟通 •在AI的设计、开发和部署过程中与利益相关者建立信任 •提供AI何时用于产品和/或服务的一般披露 •采取措施帮助员工适应AI增强的工作环境 国家一级的建议 培养AI人才和提高技能的劳动力 与公共和私营部门密切合作,以确保一个国家的劳动力能够适应新的工作方式,并拥有足够的数字技能来与人工智能系统进行有效交互。 支持AI创新生态系统并促进对AI初创企业的投资 与公共和私营部门密切合作,为人工智能开发创造一个支持性环境,公司能够访问和利用数据、数字技术和基础设施。 投资于AI研究和开发 跟上人工智能的最新发展,并鼓励与人工智能网络安全、人工智能治理和人工智能伦理相关的研究,以确保人工智能系统和工具的安全性和弹性也与新的用例并行发展。 促进企业采用有用的工具来实施《东盟人工智能治理和道德指南》 部署工具,以便在运营中实施AI治理,并确保文档和验证流程更高效。 提高公民对AI在社会中的影响的认识 提高对人工智能潜在风险和好处的认识,以便公民能够就人工智能的适当使用做出明智的决定,并采取适当的行动来保护自己免受人工智能系统的有害使用。 区域一级的建议 成立东盟人工智能治理工作组,推动和监督该地区的人工智能治理举措 工作组可以由东盟成员国的代表组成,他们可以共同努力推出本指南中提出的建议,并为希望采用本指南组成部分的东盟国家提供指导,并在适当情况下,包括与其他行业伙伴的意见和投入进行磋商。 修改本指南以解决生成AI的治理问题 风险包括: 治理应包括: •调整现有框架和工具•关于制定分担责任框架的指导•关于提高生成式AI风险管理能力的指南•关于如何区分AI生成的内容与真实生成的内容的指南 •错误和拟人化•事实上不准确的回应和虚假信息•深度伪造、冒充、欺诈和恶意活动•侵犯知识产权•隐私和保密•嵌入偏见的传播 汇编用例汇编,以证明在东盟开展业务的组织对《指南》的实际执行情况 用例汇编展示了这些组织对AI治理的承诺,并帮助他们提升自己作为负责任的AI从业者。 用例 通过在东盟运营的组织在AI设计,开发和部署中实施AI治理措施的用例,说明《东盟AI治理和道德指南》的组成部分。 A.Introduction 人工智能(AI)是使分析机器智能化的学科,使组织能够适当地运作并具有远见。与其他技术不同,某些形式的人工智能会自行适应,通过使用来学习,因此它今天做出的决定可能与明天做出的决定不同。人工智能和自动化一直是热门话题,因为它们具有变革潜力,也有能力通过颠覆旧模式来引入新机会。东南亚也不例外。由于其独特的特性和风险,AI系统应与其他软件系统区别对待。技术发展和突破推动的人工智能系统的能力正在迅速超过监测和验证工具。由于进入门槛低和开源技术的扩散,人工智能的发展也是分散的。鉴于人工智能可能给东盟的组织和个人带来深远的影响,人工智能做出的决定必须符合国家和企业价值观,以及更广泛的道德和社会规范。 此外,东盟成员国(AMS)制定的《东盟数字总体规划2025》(ADM2025)将东盟视为领先的数字社区和经济集团,由安全和变革性的数字服务,技术和生态系统提供动力。在这种情况下,ADM2025确定了授权行动(EA)2.7,建议制定和采用区域政策,以提供有关AI治理和道德的最佳实践指导。近年来,各国政府和国际组织已经开始发布关于人工智能伦理和治理的原则、框架和建议。例如新加坡的AI治理框架模型。1OECD关于AI的建议2。但是,尚未有政府间的AI通用标准来定义AI治理的原则,并为该地区的决策者以负责任和道德的方式利用AI系统提供指导。在起草本指南的过程中,现有的AI治理框架和准则,例如教科文组织的《人工智能伦理建议书》3并引用了欧盟的可信AI道德准则4. 《东盟人工智能治理与伦理指南》旨在增强区域负责任地设计、开发和部署传统人工智能系统,并增加用户对人工智能的信任。 1.目标 本文件为该地区希望在商业和非军事或两用应用中设计、开发和部署传统人工智能技术的组织提供实用指南。本指南的重点是鼓励东盟内部的协调,并促进不同司法管辖区人工智能框架的互操作性。它还包括关于国家和区域一级举措的建议,该地区政府可以考虑实施这些举措,以负责任地设计、开发和部署人工智能系统。 《东盟人工智能治理和伦理指南》涵盖了广泛的考虑因素,需要根据行业性质、技术复杂性和人工智能系统的相关风险,为设计、开发和部署人工智能的组织量身定做。鼓励地方政府当局在制定政策和方法时参考本指南。 虽然采用本文规定的框架是自愿的,但本指南可以帮助组织在利益相关者和公众之间建立信任,并使其AI实践与国际标准和最佳实践保持一致。鼓励组织参考本文档中的指南,以了解如何评估与AI相关的风险,并采取措施在其组织的背景下负责任地设计、开发和部署AI。 本指南旨在成为一份活文件,应与行业合作伙伴协商,由相关东盟部门机构定期审查和评估,以确保其与人工智能领域的最新法规和进步保持同步。本指南的更新可能会在随后发布,以跟上治理和标准的演变和增长。 2.假设 人工智能系统需要全面管理,包括其生态系统和所有组件— —人类运营商、物联网(IoT)、机器人、传统技术、供应商等。除了本指南中关于人工智能治理的建议外,还鼓励组织遵循和参考相关领域的国际标准和最佳实践,如信息安全管理系统(ISMS)、数据管理和治理、软件开发和测试、网络安全、物联网等。 开发人员和部署人员在设计、开发和部署AI技术时需要遵守适用的国家法律和法规,包括特定部门的法律和宪法。《东盟人工智能治理和伦理指南》不会取代或取代任何现有或即将出台的法律,仅作为在该地区负责任的人工智能设计、开发和部署的指南。在部署AI之前,开发人员和部署人员必须考虑部署AI系统的国家的相关法律和监管要求,以及法律、政策和监管问题的使用背景。 鉴于AI的快速发展空间,AI系统的开发人员和部署人员应注意最新的治理工具和技术,并进行相关评估,以评估这些工具在AI系统的设计,开发和部署中实施AI治理实践的可行性和实用性。 3.目标受众 《东盟人工智能治理与伦理指南》是东盟认可的框架,供地区组织在设计、开发和部署传统人工智能技术时参考。它为整个价值链中的各种个人和组织提供指导和建议。其中包括AI开发人员和部署人员,学术专业人士以及对使用或扩展AI系统感兴趣的每个人。《指南》还包括关于国家一级和区域一级建议的章节,这些建议更针对东盟的决策者。 4. Definitions 本指南中使用的几个关键术语的定义如下。 东盟:是指东南亚国家联盟。它是东南亚10个成员国的政治和经济联盟,促进政府间合作,并促进其成员与亚太地区国家之间的经济,政治,安全,军事,教育和社会文化融合。 人工智能(AI):是一个工程或基于机器的系统,对于给定的一组目标,可以生成影响真实或虚拟环境的预测,建议或决策等输出。 AI系统:是一个基于机器的系统,能够通过为一组给定的目标产生输出(预测,建议或决策)来影响环境。它使用基于机器和/或基于人类的数据和输入来(i)感知真实和/或虚拟环境;(ii)通过自动分析将这些感知抽象为模型(e。Procedre,使用机器学习),或手动;和(iii)使用模型推理来制定结果的选项。人工智能系统旨在以不同级别的自主性运行。 深度学习:是机器学习的一个子集。它非常松散地基于大脑的信息处理架构-尽管远未达到其能力-使系统能够找到重新表示输入数据的方法,从而有助于做出高度准确的预测。 Deployer:是使用或实现AI系统的实体,该系统可以由其内部团队或通过第三方开发人员开发。 开发商:是设计、编码或生成AI系统的实体。 机器学习:是AI中的一个子领域,算法通过使用统计技术识别数据中的模式和相关性来学习,以提高性能,而无需明确编程。 用户:是与AI系统或启用AI的服务进行交互的实体或个人(内部或外部),并且可能受到其决策的影响。 框架的指导原则 B.框架的指导原则 以下七项指导原则有助于确保对AI的信任以及道德AI系统的设计,开发和部署。它们还提供了有关如何以考虑更广泛的社会影响的方式设计,开发和部署AI系统的指导。 1.透明度和可解释性 透明度是指披露人工智能系统何时被使用以及人工智能系统参与决策、使用哪种数据及其目的。通过向个人披露系统中使用了人工智能,个人将意识到并可以做出是否使用人工智能系统的明智选择。 可解释性是指能够以人们可以理解的方式传达AI系统决策背后的推理,因为并不总是清楚AI系统是如何得出结论的。这让个人知道影响AI系统推荐的因素。 为了建立公众对人工智能的信任,重要的是确保用户了解人工智能技术的使用,并了解他们互动中的信息是如何使用的,以及人工智能系统如何使用提供的信息做出决策。 根据透明度原则,部署人员有责任向利益相关者明确披露人工智能系统的实施情况,并提高对所使用人工智能系统的普遍认识。随着人工智能在许多企业和行业中的使用越来越多,公众越来越意识到并有兴趣知道他们何时与人工智能系统进行交互。了解AI系统何时以及如何与用户交互对于帮助用户辨别与行为不符合预期的AI系统交互的潜在危害也很重要。过去,人工智能算法被发现歧视女性求职者,并且无法准确识别深色皮肤女性的面孔。对于用户来说,重要的是要意识到人工智能系统的预期行为,这样他们就可以对与人工智能系统交互的潜在危害做出更明智的决定。人工智能电子商务平台透明度的一个例子是,通知用户他们的购买历史被平台的推荐算法用来识别类似的产品,并在用户的供稿上显示。 根据可解释性原则,设计、开发和部署AI系统的开发人员和部署人员也应努力在用户中培养对这些系统如何工作的一般理解,并简单易懂地解释AI系统如何做出决策。了解人工智能系统是如何工作的,将有助于人类知道何时信任它的决定。解释可以具有不同程度的复杂性,从对哪些因素更显著地影响决策过程的简单文本解释到在相关文本上或在导致系统决策的图像区域上显示热图。例如,当使用AI系统来预测患者心脏