您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[埃森哲]:从人工智能合规性到竞争优势(英) - 发现报告
当前位置:首页/行业研究/报告详情/

从人工智能合规性到竞争优势(英)

信息技术2024-01-15埃森哲陈***
从人工智能合规性到竞争优势(英)

从 AI 合规到竞争优势由设计负责 关于研究 :我们sur来自 17 个地区的 0 位高级管理人员and行业了解他们对 AI 的态度法规他们愿意接受它。以下概述了我们的发现 , 并结合了关于如何为 AI 的监管做好最佳准备的经验学习。由设计负责 第 1 部分:它是值得的按设计负责 按设计负责通过设计负责意味着组织从一开始就了解将负责任的 AI 纳入其数据和 AI 战略的重要性。他们在所有模型的整个生命周期中都采用负责任的数据和 AI 方法 , 使组织能够建立信任并充满信心地扩展 AI 。责任的奖励有明显的加速人工智能转型的动机 , 但人工智能面临监管关注意味着组织需要谨慎行事。通过设计负责可以帮助他们扩展人工智能 , 同时更好地降低风险 , 满足监管要求 , 并为自己和利益相关者创造可持续价值。在最近的一份报告《 AI 成熟度的艺术》中 , 埃森哲确定了一小群 (12%) 的高绩效组织正在使用 AI 创造差异化的增长和成果 [i] 。这些 “AI 成就者 ” 已经比他们的同行产生了 50% 的收入增长 , 他们在客户体验 (CX) 和环境方面的表现优于其他群体。社会与治理 (ESG) 指标 [ii] 。为了了解这些成就者在做什么是正确的 , 我们建立了一个人工智能模型来检查他们的行为并确定他们的关键绩效指标。在对业务成果产生组合影响的其他成功因素中 , 这些成就者在设计上负责任。平均而言 , 成就者比其他人高 53 %AI 实践从一开始就在规模上 [iii] 。我们还了解到“受人工智能影响 ” 的公司收入在 2018 年至 2021 年之间增加了一倍以上 , 到 2024 年可能会增加两倍 [iv] 。如果负责任的人工智能被视为事后的想法 , 不仅这些好处不太可能 , 组织最终可能会对工人、消费者和社会造成真正的伤害 (并侵蚀他们的信任) 。由设计负责 4 调节的作用如今 , 只有 35 % 的消费者信任组织如何实施 AI [v] 。监管是帮助解决信任缺陷的一种方法。政府和监管机构正在考虑如何监督和制定标准人工智能的开发和使用。英国、巴西和中国等国家已经在采取行动 , 要么发展与人工智能相关的现有要求 (例如 , 在 GDPR 等法规中) , 要么制定新的监管政策。欧盟拟议的人工智能法案是最著名的例子: 一次批准后 , 任何想要在欧盟内使用 , 构建或销售 AI 产品和服务的人都必须考虑其组织的立法要求。随着公司为越来越多的任务部署人工智能 , 遵守法律、法规和道德规范对于建立健全的数据和人工智能基础至关重要。我们调查了 17 个地区和 20 个行业的 850 名高管 , 以了解他们对人工智能监管的态度 , 并评估他们遵守人工智能监管的准备情况。由设计负责 5 AI 监管的好处受访者认为 , 监管将增强人们对人工智能的信任和信心 , 这将对他们的业务产生有益的影响。43%认为它会改善他们工业化和扩展 AI 的能力36%相信它会创造竞争优势 / 差异化机会41%相信它可以帮助吸引 / 留住人才大多数组织认为监管会在一定程度上影响他们我们的研究表明 , 监管意识 ( 特别是来自欧盟 ) 普遍普遍 , 组织消息灵通。几乎所有 ( 97 % ) 的受访者都认为监管会在一定程度上影响他们 , 95 % 的受访者认为至少部分业务会受到欧盟法规的具体影响。他们将合规性视为竞争优势的意外来源有趣的是,许多组织将人工智能监管视为一种恩惠,而不是成功的障碍。能够提供高质量、值得信赖的人工智能系统,并为监管做好准备,这将在短期内给先行者带来重大优势,使他们能够吸引新客户,留住现有客户并建立投资者信心。更重要的是,一个组织展示自己的道德 AI 实践的能力。可以吸引人才和潜在客户。这对 Zen 来说尤其重要 , 他们中的许多人都非常重视雇主的价值观和对 ESG 绩效的承诺。组织正在优先考虑合规性 , 并希望投资在我们接受调查的公司中 , 77% 的公司表示 , 未来对人工智能的监管是当前全公司的优先事项。再加上 Responsible AI 可以推动业务绩效的观点 , 超过 80% 的受访者计划增加对 Responsible AI 的投资也就不足为奇了。由设计负责 6 负责任的 AI 准备大多数组织尚未将这些有利的态度和意图付诸行动。让我们以拟议的欧盟 AI 法案为例。这项立法可能会在 2023 年底之前通过,在规则生效之前有两年的宽限期。但是时间表比看起来要宽松得多。我们与大型组织合作开展主要企业范围合规计划的经验 (例如ProcedreGDPR,负责任的 AI ) 表明,它很容易需要长达两年的时间。建立所有必要的控制 , 他们将需要合规。我们仔细研究了调查数据 , 以更好地了解组织如何准备好迎接即将到来的这将影响他们的业务。评估受访者的水平准备就绪, 我们研究了构成负责任的 AI 方法的关键因素 , 例如 :•CEO / C - Suite 对负责任的 AI 的参与和支持 - 我们的 AI 成熟度研究验证为AI 成熟组织的关键成功因素•合规投资•治理和风险管理框架的运作•风险缓解技术和技巧•负责任的 AI 文化 , 人才管理和培训 / 再培训由设计负责 7 超过 80% 的受访者表示 , 到 2024 年 , 他们将投入 10% 或更多的人工智能总预算来满足监管要求 , 45% 的受访者计划花费至少 20% 。由设计负责令人震惊的是 , 我们发现只有 6% 的组织已经建立了他们负责任的人工智能基础 , 并将他们的原则付诸实践。这个小组准备好适应近期和持续的监管变化。按照设计负责 , 这一类别的组织可以超越合规 , 专注于竞争优势。大多数受访者 ( 69% )有一些方面 , 但还没有实施一个强大的负责任的人工智能基础。其中一些组织已经开发一个治理框架 ( 62.3% ) , 一些人已经定义了一个风险管理框架 ( 40.7% ) , 另一些人已经开始实施风险缓解工具和技术 ( 44.1% ) 。这个群体理解负责任的人工智能的价值 , 但他们尚未将其嵌入整个组织。最后 , 25% 的受访者尚未建立任何有意义的负责任的 AI 能力。该小组将有最多的工作要做 , 以使他们的组织为监管变革做好准备。8 第 2 部分:路障准备 准备的路障虽然大多数公司已经开始了他们负责任的人工智能之旅 , 但大多数公司 (94%) 正在努力在负责任的 AI 的所有关键要素。问题变成 : 为什么 ? 我们确定了几个主要障碍。最大的障碍在于负责任地扩展人工智能的复杂性 — — 这项工作涉及多个利益相关者 , 并跨越整个企业和生态系统。我们的调查显示 , 近 70 % 的受访者没有完全运作和整合负责任的 AI 治理模型 : 随着新要求的出现 , 它们必须融入产品开发流程 , 并与隐私、数据安全和内容等其他监管领域联系起来。此外 , 组织可能不确定该怎么做 , 而他们等待法规被定义。围绕推出过程 / 时间的不确定性 (35%) 和潜在不同地区的标准不一致62%已经开发治理框架39%47%定义了一个风险管理框架(34%) 是与未来人工智能监管相关的最大担忧。随着公司采用 “观望 ” 方法 , 这种缺乏明确性可能会导致战略瘫痪。正如 GDPR 所经历的那样 , 反应型公司别无选择 , 只能以合规为重点 , 优先考虑具体要求而不是潜在的风险 , 这可能导致已经开始实施风险缓解工具和技术。未来的问题... 和价值留在桌子上。由设计负责 10GDPR 的经验教训“打勾 ” 与主动规划的风险 :1.组织不断变化 ; 新的数据、应用程序、角色变化等意味着合规能力必须足够强大 , 以适应内部变化。当这些内部变化不可避免地发生时 , 只希望采取复选框方法的公司被撤销了。2.随着人工智能的不断发展 , 风险状况也在不断发展。新技术和用例出现 , 而不同的国家和地区制定了不同的合规要求。为了保持领先于法规 , 组织必须不断监控潜在风险 , 而不是具体要求。那些只关注GDPR 合规性发现他们的战略脱节且不可持续。虽然这对所有受监管的公司都是如此 , 但对于那些可能面临全球一系列不同法规的公司来说尤其重要。 由设计负责考虑这个 :1.负责任的 AI 是跨功能的 , 但通常生活在筒仓中。商业圆桌会议是由美国最大公司的首席执行官组成的协会 , 已经为企业和政策制定者发布了关于负责任使用人工智能的指南。但在实践中 , 负责任的人工智能往往没有得到组织。大多数受访者 ( 56% ) 表示,AI 合规性的责任完全由首席数据官 ( CDO ) 或同等人员 ( CDAO 、 CIO 、 CTO ) 承担。更重要的是,尽管需要跨职能协作,但只有 4% 的组织表示他们有一个跨职能团队。负责任的 AI 与整个组织相关,从数据和 AI 团队,到法律和风险,再到营销,人力资源和其他公司职能,更不用说产品所有者了。获得来自整个高管的支持和支持将为组织的其他部门确定优先事项。11 2.风险管理框架是所有人工智能的要求 , 但它们并不是一刀切的。只有大约一半 ( 47 % ) 的受访组织开发了风险管理框架 , 尽管这是开发 AI 的先决条件负责任。拟议的欧盟人工智能法案定义了不同类别的人工智能风险 , 主要由使用因此 , 一旦通过 , 风险管理框架可能会成为遵守法规的必要条件。即使对于那些创建了框架的人来说 , 挑战也在于以可持续的方式在整个组织中应用它。 AI 是否负责无法在单个时间点进行判断。必须不断检查。然而 , 我们的调查发现 , 70% 的组织尚未实施减轻 AI 风险所需的持续监控和控制。12 3.人工智能生态系统中有力量 , 但你和你最弱的伴侣一样强大大多数 ( 如果不是全部 ) 大型组织都在跨越许多合作伙伴的生态系统中运作。因此,监管将要求公司考虑其整个 AI 价值链 ( 重点是高风险系统 ),而不仅仅是他们专有的元素。事实上,39% 的受访者认为,与合作伙伴的合作是监管合规面临的最大内部挑战之一,只有 12% 的受访者将负责任的人工智能能力要求纳入与第三方提供商的供应商协议中。因此,采购第三方解决方案将。require a provider to show robust evidence that their solution is compliance with regulations. This task is made even more complex by the remission of any provider to reveen the IP underpinning一个解决方案。了解协作中各自的角色和责任生态系统和平台将变得越来越重要 - 并且导航复杂。这一点更加重要 , 因为组织的趋势AI 的用户和提供商都将在未来三年内增加。由设计负责 1377%的公司既是用户又是提供商AI 解决方案 , 创建必须跨多个合作伙伴 / 价值链协调的额外要求 4.文化是关键 , 但人才是稀缺的。重要的是 , 每个员工都对组织采取的稳健方法有足够的理解和信心 , 以确保负责任地使用人工智能。调查结果表明 , 大多数组织都有在实现这一目标之前 , 还有一段路要走。例如 , 受访者报告说 , 他们缺乏熟悉人工智能监管细节的人才 , 27% 的人将这作为他们最关心的三大问题之一。此外 , 超过一半 (55.4%) 的人还没有在整个组织中嵌入负责任的人工智能的特定角色。数据科学人才已经稀缺的组织必须考虑如何吸引或发展负责任的 AI 角色所需的专业技能 - 记住负责 AI 系统的团队应该当涉及到人工智能时, 文化对于围绕负责任的原则和实践团结整个组织至关重要。14专业认证一个可能的发展可能是为数据科学家创建专业认证。到目前为止 , 数据科学资格还没有公认的外部标准或特许地位。创建这些标准将更容易确定哪些数据科学家有资格在负责任的人工智能领域工作。 由设计负责5.衡量至关重要 , 但成功是由非传统的 KPI 来定义的。最后,人工智能的成功不能仅仅用传统的 KPI 来衡量,比如创收或效率提升,但组织往往会依赖于这些传统的基