您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[英国技术贸易协会]:techUK立场文件——人工智能未来的治理 - 发现报告

techUK立场文件——人工智能未来的治理

techUK立场文件——人工智能未来的治理

2022年3月 英国是全球人工智能领域的领导者之一,在国际同行评审出版物和私人投资方面的比较中排名靠前。1人工智能技术有潜力推动经济增长,帮助改善我们日常生活中接触到的许多服务,甚至为解决现代社会面临的一些最复杂的社会和环境挑战做出贡献。然而,一项最近的全球调查发现,英国人口对人工智能的使用最为怀疑,仅有35%的人表示他们信任使用人工智能的公司,就像信任不使用人工智能的公司一样。2 帮助确保更大的公众信任的一种方式是采取清晰透明的AI治理方法,这有助于促进知情参与。在上一年发布的《国家人工智能战略》中,政府确立了一种治理机制,该机制“支持科学家、研究人员和企业家,同时确保消费者和公民对人工智能技术的信心”,这对于确保英国作为全球人工智能超级大国的持续地位至关重要。3 techUK全心全意欢迎建立这样一种制度的雄心。如果成功,它将鼓励更广泛的AI采用,推动经济增长并提高全国的生活水平——关键在于,以能够防范某些AI应用潜在不利后果的方式实现。但这只有在我们创建一个能够鼓励和促进英国AI创新、并使开发者和部署者更容易而非更难履行其责任的治理制度时才会发生。 正如《国家人工智能战略》所宣布的,政府目前正在准备一份白皮书,该白皮书预计将阐述其选择的道路,为英国未来的AI治理框架设定路线。为支持此项工作,techUK已准备这份简短论文,阐述我们认为若要建立比例得当、有利于创新且有效的AI治理体系,白皮书中必须包含的关键要素。我们鼓励政府: 1. 采取基于风险的方法;:根据给定AI模型或应用程序所构成风险的估计级别,并参考明确的标准和类别,对-tier AI治理要求进行分层。 考虑整个AI生命周期;阐明在人工智能规划和采购以及持续使用等阶段,哪些风险可以被合理预期得到解决。 3. 鼓励并监督有效的人工智能保证市场的开发;与行业合作,制定适用于不同风险级别和人工智能生命周期阶段的一致且透明的需求。 4. 承认现有法规的作用;确保任何潜在的新的法规或治理机制都不会复制或与现有法规相矛盾。 人工智能并非单一事物;它是一个通用的软件类别。基于人工智能的解决方案可以涵盖多种不同的技术和方法,包括监督学习、无监督学习、半监督学习和强化学习,以及更多传统的算法方法。这种技术的多样性要求政府的规划性人工智能治理框架要明确界定人工智能应用何时属于其范围,而不是对所有可能被归类为人工智能的技术应用采取一刀切的条件。 如果在这种情境下人工智能需要大量治理报告,那将是适得其反的,因为它可能会抑制采纳并延缓人工智能提高生产力的潜力。因此,治理要求应根据估计的风险水平制定,例如考虑身体或心理伤害风险、对基本权利的侵犯或对环境的损害。风险类别应考虑潜在伤害的严重程度和可能性,并应定期审查。治理要求应专注于人工智能的最高风险使用。 实现这一目标最关键的因素在于定义风险等级。各行业中有多个领域可以从人工智能中获益,而这些领域的风险可以被视为较低风险,例如在供应链优化或商业定价战略中。 建议: 按风险估计级别制定Tier AI治理要求,并明确界定类别和标准。 要让基于风险的AI治理方法有效,仅仅建立风险等级是不够的;它还必须明确这些风险如何在AI生命周期各个阶段之间分配。AI的负责任使用取决于那些委托和规划AI实施的人、那些推广AI解决方案的人、那些开发AI模型的人以及那些监督其使用和监测其影响的人——以及其他众多利益相关者。 他们也无法监督每个软件周期的迭代及其产生的变化,因此无法预测或监控潜在的 影响。这些挑战尤其对通用人工智能系统的开发者来说十分突出,他们无法预测这些系统 将被用于何处或如何集成或构建。 阐明在何种阶段一个已识别的风险可以被合理预期得到解决,将鼓励更广泛地采用人工智能解决方案,因为每一方都能对其生命周期每个阶段已检查的内容以及自身的责任感到自信。要实现这一点,需要确保对每个阶段进行检查和解释的内容保持一致性。这可以通过一个有效的AI保证生态系统来实现,该生态系统将在下方进一步探讨。 如果一个AI治理框架仅强调开发者的作用,它将给AI提供商带来不恰当的责任水平。同时,这也降低了实现真正安全和符合道德的AI环境的机会。AI开发者可以专注于预期的模型用途,并检查关键数据指标以评估性能和结果,但他们无法保证其产品将按预期使用。 建议: 阐明人工智能生命周期中各利益相关者之间责任划分的清晰性。 AI确保证务是指提供关于产品在公平性、安全性或可靠性等问题上表现的可信信息的过程,并且也可用于确保符合任何相关标准。4政府最近发布了一份关于有效的人工智能信任生态系统路线图。5在政府尚未宣布其人工智能治理的选定方法之前,难以评估该路线图,但似乎很明显,提供高质量的人工智能保证工具和服务对于该框架的成功至关重要。因此,我们强烈建议政府专注于必要的步骤,以确保这些工具和服务尽快可用。 如上所述,techUK提议人工智能治理的方法应基于风险等级。为确保人工智能保证系统支持基于风险框架,它需要满足不同保证需求所需的工具和服务。这可能涉及第三方审计员,而关键组成部分将是明确的基准要求,以在不同保证服务提供者之间建立一致性。行业应参与关于此类基准要求应为何的讨论,贡献其在质量和安全保证方面积累的经验见解。 3. 鼓励并监督人工智能保障工具、能力和一致性 从拥有长期风险评估流程的行业中或许可以汲取经验。例如,在网络安全领域,网络与信息安全指令要求被识别为关键服务提供商的企业完成一个量身定制的风险评估框架,该框架需根据预估的风险水平进行设计。被划分为关键国家基础设施的服务则需通过由相关主管部门监管的框架进行评估。网络安全行业还建立了完善的议题报告程序,有助于各利益相关方之间保持一致性。 然而,评估必须与我们的上述建议相符才能保持适当性——也就是说,仅适用于高风险层级的AI系统,以及在生命周期中可以合理预期解决此类风险的阶段。 最后,应考虑国际行业驱动标准在人工智能保证生态系统发展中的作用。鉴于人工智能是一个复杂、全球化和不断发展的领域,国际标准化组织正在进行的自愿标准化工作将对全球人工智能治理产生日益重要的影响。 与那些被要求或有兴趣评估网络安全风险的企业或服务提供商一样,在人工智能生命周期的任何阶段都参与其中的人员若能拥有评估潜在人工智能相关风险的工具或服务,以及清晰的问题报告途径,将大有裨益。这可能同时提升他们自身的信心以及利益相关者的信心。 建议: 与行业合作,培育高质量的人工智能保证市场,以满足不同风险类别和人工智能生命周期阶段的需求,并基于持续透明的要求。 最后,该框架必须明确说明新的AI治理措施将如何与不同行业和供应链不同层级的现有法规相互作用。许多AI产品和服务已经以行业层面进行了监管,例如在医疗保健领域通过药品和保健品监管局进行监管,在金融服务领域通过金融行为管理局和审慎监管局进行监管。此类现有监管通常基于深入的领域专业知识,这些专业知识针对AI在其使用背景下的风险进行管理。 应避免出现潜在的新人工智能治理措施可能导致重复且可能混淆人工智能特定治理与现有法规相关性的情况。因此,任何新措施都必须创建以与现有法规协同工作,并且监管机构需要合作以确保跨部门采取的一致方法。 数字监管合作论坛的作用将继续在营造这种一致性方面发挥关键作用,这对中小企业尤为重要,因为令人困惑的文件要求带来的负担将产生最严重的影响,并可能完全阻止人工智能的采用。 此外,组织还受《2010年平等法案》和《2018年数据保护法案》(包括《数据:新的方向》咨询之后立法的任何改革)的约束。这些法案将继续适用于人工智能的开发、部署和使用,无论采取何种针对人工智能的治理措施。 建议: 确保任何潜在的新法规或治理机制都不会复制、混淆或与现有法规相矛盾。 找到人工智能治理的正确方法是一个平衡的问题。政府在国家人工智能战略中提出的目标是正确的;即定位英国为与人工智能共存的最佳生活和工作场所。为了实现未来能够改善经济和人民生活的人工智能创新,企业需要清晰和确定,但它们也需要既定的方法来检查,以及证明人工智能的创造和部署是负责任的。 如果即将发布的关于人工智能治理的白皮书遵循本文提出的建议,techUK认为它将使我们更接近一个繁荣且值得信赖的人工智能环境。通过认识到许多人工智能应用具有低风险或无风险危害,将鼓励创新;通过人工智能生命周期的公平责任分配,将确保责任感;通过清晰且一致的安全保障机制,将建立信任;通过明确现有和潜在新监管措施的影响,将简化官僚程序。 techUK期待在整个制定和实施其人工智能治理方法的过程中与政府合作。如果我们能做好这一点,它将能实现一个由负责任的人工智能驱动、为国家整体利益而工作的经济和社会。 关于 techUK techUK是一个会员组织,旨在将个人、公司和组织聚集在一起,以实现数字技术所能取得的积极成果。我们在商业、政府和利益相关者之间进行合作,以充分发挥技术的潜力,从而构建更强大的社会和更可持续的未来。通过提供专业知识和洞察,我们支持我们的会员、合作伙伴和利益相关者,帮助英国应对不断变化的世界所带来的挑战。 :linkedin.com/company/techuk @techUK youtube.com/user/techUKViews info@techuk.org