AI时代的抉择以“信”筑基,行稳“智”远 德勤亚太|人工智能研究院 目录 报告概要401应对AI快速采用带来的风险602卓越AI治理之道803亚太地区AI治理现状1204卓越AI治理的益处2105搭建可信AI的基础24附录28 报告概要 本报告由德勤经济研究所和德勤亚太人工智能研究院共同编制,旨在为亚太地区组织的首席高管和技术负责人提供洞察,助其改进治理结构和组织机制进而开发更可信的AI解决方案。 德勤高可信人工智能框架明确了AI解决方案建立可信性所必需的七大要素:透明、可解释;公平、中立;稳健、可靠;保护隐私;安全、稳妥;承担责任;问责。 组织实现可信AI的前提是什么?那就是卓越AI治理。 首席高管和董事会成员面临众多优先事项,启动并推进有效AI治理实践可能充满挑战。为助力组织解决这一难题,我们开发了AI治理成熟度指数,通过一系列评估标准来确定卓越AI治理实践。基于该指数,我们对亚太13个地区近900名高管进行调研,覆盖多个行业和部门以及不同组织规模。 我们的调研旨在了解组织AI治理成熟度水平,识别有效AI治理的关键推动因素,并评估采取治理举措给组织带来的益处。 AI时代的抉择:以“信”筑基,行稳“智”远 随着AI解决方案从试行进入推广阶段,组织面临着一些重大风险,例如安全漏洞、隐私问题和法律风险。尽管AI解决方案能带来巨大的效益,但如果这些风险无法得到妥善管理,就可能导致数据泄露、声誉和业务受损以及监管罚款。然而,令人担忧的是,超过半数的技术工作者并不认为其所在组织能够有效应对AI相关风险。 为了解有效AI治理如何助力应对这些风险并释放AI潜力,德勤对来自亚太13个地区的近900名高管开展调研,针对AI治理成熟度水平进行全面透彻的分析和研究。 各行业AI使用导致的事件数量均呈上升趋势 超过四分之一的组织过去一年发生的AI相关事件有所增加。 卓越治理也可促进AI应用扩大和财务收益提升 2倍 在研发、生产和运营、客户服务及销售和市场营销等领域使用AI解决方案的可能性增加 然而,90%以上的组织都需要提升AI治理 德勤AI治理成熟度指数采用12项指标来评估组织的AI治理成熟度水平。 01应对AI快速采用带来的风险 AI的采用正在改变亚太地区商业格局。生成式AI的快速崛起更是加速了这一过程,预计到2030年,亚太地区的AI投资将增长四倍,达到1170亿美元。1生成式AI迅速成为亚太地区发展最快的企业技术。 AI解决方案或其使用的海量数据可能存在安全漏洞,一旦遭到数据窃取或泄露,可能产生巨大的成本。2024年,全球数据泄露的平均成本接近500万美元,较去年增长了10%。4对于大型组织而言,这一成本可能会更高。 此外,还有一些难以量化的成本,如品牌形象受损和客户流失。消费者信心下降以及品牌声誉受损可能会带来持久的不利影响,组织必须有效管理AI风险并确保网络安全。同时,消费者更青睐在采用AI时遵从伦理规范的组织,例如对使用AI保持透明。研究显示,62%的消费者更信任其认为在AI使用上符合伦理的组织,而且有53%的消费者愿意为这样的产品和服务支付溢价。5 在AI的快速采用上,员工往往比组织领导先行一步。德勤关于AI新生代的调研发现,超过五分之二的员工已在工作中使用生成式AI,其中年轻员工更是引领着AI热潮。2 AI应用达到如此速度和规模,组织领导在试行和推广AI技术的同时,也面临着与AI相关的风险。我们对近900名高管的调研显示,高管在AI使用中最普遍的担忧是安全漏洞(86%)、监控(83%)和隐私(83%)方面的风险(图1)。自从生成式AI问世以来,技术能力显著提升,工具界面更为人性化,用户人数大大增加,这些风险也就变得更加突出。 组织还必须确保其使用AI的方式符合不断发展的法律和监管要求,这是受访高管普遍表示担忧的风险之一。尽管亚太各地区一直在着力制定和实施法律法规,但现行监管要求通常只是组织需达到的最低标准,而不是全方位的最佳实践。因此,组织高管必须制定、采纳并执行针对AI解决方案和系统的可信标准。6 “德勤的一项研究显示,超过半数的技术工作者认为其所在组织并无适当的机制来识别或应对AI相关风险。”3 应对与AI相关的风险至关重要:如果应对不当,这些风险可能导致客户关系紧张、被处监管罚款或遭到公众抵制。此外,畏惧风险也可能阻碍组织应用AI。企业AI应用现状调研显示,在AI工具开发和使用所面临的四大挑战中,其中三大挑战是风险、监管和治理问题。由此可见,有效AI治理对于管理AI相关的伦理和运营风险以及充分利用AI技术尤为重要。 图1 组织在AI使用中最担忧的潜在风险 02卓越AI治理之道 开发可信AI解决方案至关重要,有助于组织高管成功应对AI快速采用所带来的风险并全面拥抱AI技术变革。可信AI可确保技术符合伦理、法律和技术标准,并使高管有信心在整个组织内使用AI解决方案。 德勤高可信人工智能框架明确了AI解决方案建立可信性所必需的七大要素:透明、可解释;公平、中立;稳健、可靠;保护隐私;安全、稳妥;承担责任;问责(图2)。该框架及相关标准应用于AI解决方案从概念到设计、开发、采购、部署的全部环节。 由于适用标准不断变化,AI治理可能变得错综复杂。为助力组织采取切实行动实现可信AI,我们开发了AI治理成熟度指数。该指数在五大支柱领域(组织架构、政策与原则、程序与控制、人才与技能以及监控、报告和评估)设置12项关键指标,全面衡量组织的AI治理成熟度(表1)。根据这些指标,组织的AI治理成熟度可分为“初级”“发展中”“成熟”三个水平。有关该指数及相关问题的更多细节,请查阅附录二。 开发符合这七项标准的可信AI解决方案并非易事。组织必须拥有健全的AI治理结构,以确保AI解决方案与这些标准保持一致。 卓越AI治理需要贯穿于技术生命周期各个阶段,并应融入到技术、流程和员工培训中。具体治理举措应根据AI解决方案的复杂程度、特定地域和行业的适用法规以及组织内部政策和标准进行调整。 下图呈现了德勤AI治理成熟度指数的各个支柱领域如何作为基本要素赋能组织实现可信AI。此外,该指数还明确了组织为实现德勤高可信人工智能框架的七大要素应采取的切实行动。 AI治理没有普遍适用的方案。具体的治理结构随行业、监管环境、AI目标和所采用AI解决方案的类型而异。例如,组织用于为员工提供人力资源政策相关信息的AI对话机器人,相比银行用于直接与客户交互的AI辅助信贷申请解决方案,所需的控制流程就有所不同。分析AI治理的共性将有助于组织找准其治理标准中有待改进的领域。 此外,需要注意的是,AI治理成熟度达到较高水平并不等同于实现可信AI输出结果。如果组织确立的治理程序并未得到有力执行、未被员工准确理解或者未能契合业务环境和战略,就可能无法实现可信AI输出结果。有效AI治理的标准因组织而异。为此,组织应当持续评估并完善AI治理框架,确保其适应组织独特的需求和不断变化的监管要求。 赋能未来:Energy Queensland致力实现负责任的AI和可持续的创新 Energy Queensland是澳大利亚最大的国有电力公司,主要从事配电、零售和综合能源解决方案业务,拥有9,300多名员工,为超过230万客户提供服务。 要高效且负责任地使用AI,有关人员需要具备适当的能力,同时要有强大的AI解决方案。为此,公司正在执行并审核“小范围测试”,让承担不同角色的员工参与上线、学习和培训计划,然后再进一步部署。 Energy Queensland首席信息官Sharyn Scriven表示:“AI是一种颠覆性技术,随着技术发展日趋成熟,将帮助我们实现愿景和2032公司战略。” Energy Queensland客户与新兴平台总经理Josh Gow认为,采用AI是公司的重点关注领域,将有助于推动运营卓越和提升客户体验,从而助力实现宏大战略。EnergyQueensland采用AI已有数年,但此前只是小范围的专门应用场景,如今已拓展至更广范围的应用场景评估和部署。 “在进一步采用AI的过程中,把握AI带来的价值和机遇并持续管理相关风险至关重要。AI将得到更广泛的应用,这只是时间早晚的问题。AI需要因人而异,也并非浮于表面。我们需要量身定制AI方案,以确保我们对AI的使用是有效的、负责任的和有价值的。” 为在引入新的AI解决方案之前确保适当的政策和机制部署到位,Energy Queensland围绕AI相关规范开展了多项重要工作,包括制定AI政策和用例实施路线图,以及采取必要措施建立可靠的防护机制。同时,为确保AI政策符合行业最佳实践并能够妥当执行,Energy Queensland不仅在内部进行了评估,也聘请外部机构进行了独立审核。Josh表示: 确保实现可信AI的关键条件 “由于AI环境快速变化并且行业标准和指南日趋成熟,我们的AI政策会进行持续审核和更新。由高管组成的AI指导委员会将定期讨论AI应用的进展以及所面临的风险和机遇。” AI政策 AI指导委员会 在全面实施之前对AI用例进行测试和试点是EnergyQueensland AI战略的一个重要特点。Josh表示,通过内部用例进行试运行的战略旨在创造一个“以测试和学习为重点,逐步评估风险和机遇”的环境,具体包括试运行企业工具和构建AI平台服务,为企业用户处理繁重的文档、会务和电子邮件提供支持。 在内部进行AI项目的试点和试运行 培训计划 03亚太地区AI治理现状 亚太地区仅有不到十分之一的组织拥有实现可信AI所需的治理结构。根据德勤AI治理成熟度指数,91%的组织AI治理结构尚处于“初级”或“发展中”水平,这表明其AI治理仍有非常大的改进空间(图1)。 从AI治理成熟度指数的五大支柱领域来看,亚太地区组织在“政策与原则”以及“程序与控制”领域的改进空间最大。目前,分别有31%和23%的组织在这两个支柱领域处于“初级”水平。相比之下,亚太地区组织在“组织架构”以及“监控、报告和评估”领域表现更佳,超过90%的组织都至少达到了“发展中”水平。 要全面达到“成熟”水平,组织需在AI治理成熟度指数五大支柱领域均表现优异。尽管单项支柱“成熟”达标组织已接近两成,但当中只有一半全面达到“成熟”水平。这表明组织需在完善AI治理上采取全局视角,为实现可信AI创造必要条件。 纠正过度自信偏差 组织领导可能高估组织AI治理成熟度。德勤的企业生成式AI应用现状调研显示,23%的组织领导认为其风险管理程序和治理非常完备。然而,本次调研更加细致地分析AI治理的基础结构,结果显示仅有9%的组织在AI治理上达到了“成熟”水平。虽然两项调研的问题和样本有所不同,但调研结果偏差巨大,表明组织高管需要全面了解其AI治理成熟度。这一点至关重要,过度自信可能妨碍组织改进AI治理;如果组织领导认为其已建立足够的机制来管理AI风险,就不太可能努力探索如何实现进一步改进。 支柱一 组织架构 明确组织内负责管理AI标准的角色,有助于确保妥善应对与AI有关的任何新出现问题。大多数受访组织表示这一责任由高管团队承担,91%的组织明确指定一名董事会成员或首席高管负责相关事宜。另外,7%的组织委任AI负责人来管理相关风险和标准,但有不到2%的组织未在组织内指定相关负责人。 中化的伦理和风险管理团队来监控AI使用趋势和识别相关风险,而大部分(61%)组织是在各个或某些部门/团队指派专责人员(图3)。其他组织则是在某些团队中指派专责人员,或者没有指派专责人员来管理AI使用。 相比团队架构,AI标准的责任制和问责制更为重要,但这在小型组织中较为罕见。员工人数超过1,000名的组织中,仅有3%未设立专门的AI风险管理岗位,而在员工人数不足100名的组织中,这一比例约为23%。 不同组织搭建AI伦理、法律和监管合规专责团队的方式可能会有所不同。只有略高于四分之一(28%)的组织设有集 支柱二 政策与原则 清晰明确、广泛宣贯的政策和原则是有效AI治理的基本