AI智能总结
关于这项研究:我们调查了分布在17个地区、20个行业的850位高管,以了解他们对人工智能监管的态度,并评估他们接纳它的准备情况。以下论文概述了我们的发现,以及关于如何为人工智能监管做好最佳准备的实证经验。 第一部分:设计上负责任的回报值得 通过设计变得有责任心责任感的回报存在明确的激励机制来加速人工智能转型,但人工智能面临的监管关注度增加意味着组织需要谨慎行事。通过设计实现责任感可以帮助他们在减轻风险、满足监管要求以及为自身及其利益相关者创造可持续价值的同时扩展人工智能。在最近的一份报告中人工智能成熟度艺术埃森哲确定了12%的一小部分表现优异的组织,它们正在使用人工智能来创造差异化的增长和成果[i]这些“AI 成就者”已经比同行产生 50% 更多的收入增长,并且在客户体验(CX)和环境、社会及管治(ESG)指标上表现优于其他群体[二]. 如果负责任的人工智能被视为事后考虑,那么这些好处不太可能实现,组织最终可能会对(并侵蚀)工人、消费者和社会造成真正的伤害。为了了解这些成就者们究竟做对了什么,我们构建了一个人工智能模型来审视他们的行为,并精准定位他们的关键绩效指标。在其他对商业结果有组合影响的成功因素中,这些成就者们天生就具有责任感。成就者们平均来说,从一開始并以规模化方式应用负责任的AI实践的可能性,比其他人高53%[iii]我们还了解到,公司在“受人工智能影响”的收入份额在2018年至2021年间翻了一番多,到2024年可能会再翻两番。[iv]. 设计层面的责任设计负责表示组织从一开始就认识到将负责任的AI纳入其数据和AI战略的重要性。他们在所有模型的整个生命周期中运营负责任的数据和AI方法,使组织能够建立信任并自信地扩展AI。 监管的作用政府和监管机构正在考虑如何监督和制定人工智能负责任发展与使用标准。英国、巴西和中国等国家和地区已经采取行动,要么通过完善现有人工智能相关要求(例如,在GDPR等法规中),要么通过制定新的监管政策。欧盟提出的AI法案是最好的例证:一旦今天,只有35%的消费者信任组织如何实施AI[v]监管是解决信任赤字的一种方式。 批准的,任何想要在欧盟内使用、构建或销售人工智能产品和服务的组织都将必须考虑其立法要求。随着公司越来越多地部署人工智能来完成各项任务,遵守法律法规和道德规范对于构建稳健的数据和人工智能基础至关重要。我们调查了分布在17个地区、20个行业的850位企业高管,以了解他们对于人工智能监管的态度,并评估他们遵守监管的准备情况。以下是我们的发现。 组织正优先考虑合规性,并希望投资通过设计变得有责任心大多数组织认为,法规会在某种程度上影响他们有趣的是,许多组织将人工智能监管视为机遇而非障碍。能够交付高质量、值得信赖且符合监管要求的人工智能系统,将在短期内为先行者带来显著优势,使他们能够吸引新客户、留住现有客户并建立投资者信心。此外,一个组织展示其自身伦理人工智能实践的能力,可以成为吸引人才和潜在客户的磁石。这对Z世代尤其重要,因为他们中的许多人高度重视雇主的价值和ESG绩效的承诺。在我们调查的公司中,77%的公司表示人工智能的未来监管是当前的全公司优先事项。结合“负责任的人工智能”可以推动业务表现的看法,超过80%的受访者计划增加对“负责任的人工智能”的投资,这并不令人惊讶。我们的研究表明,对法规(尤其是欧盟的法规)的认识通常很普遍,组织也获得了充分的信息。几乎所有人(97%)都认为法规将在某种程度上影响他们,95%的人认为他们的至少部分业务将受到欧盟法规的影响。他们将合规视为一种意外的竞争优势来源 人工智能监管的利处43%认为这将提高他们实现工业化和扩展AI的能力受访者认为监管将增强对人工智能的信任和信心,这对他们的业务将产生积极影响。 41%相信它可以帮助吸引/留住人才36%相信它会创造竞争优势/差异化机会 通过设计变得有责任心让我们以拟议的欧盟人工智能法案为例。这项立法可能在2023年底之前通过,并且在规则生效前有两年的宽限期。但时间表远不如表面看起来那么宽裕。我们在与大型组织合作,进行主要的企业级合规计划(例如GDPR、负责任的AI)方面的经验表明,建立所有必要的控制措施以确保合规,可能需要长达两年之久。我们仔细查看了调查数据,以便更好地了解各组织为应对即将影响其业务的监管做好准备的程度。大多数组织尚未将这些积极的态度和意图转化为行动。 为了评估受访者的准备程度,我们检查了构成负责任人工智能方法的关键因素,例如:•首席执行官/高管团队的参与和支持,负责任的AI——这是我们人工智能成熟度研究验证为人工智能成熟组织的关键成功因素•合规投资•治理和风险管理框架的运营化•风险缓解技术和技术•负责任的AI文化,人才管理和培训/技能再培训 令人担忧的是,我们发现只有6%的组织建立了其负责任的AI基础并将其原则付诸实践。这个群体准备适应近期的和持续的监管变化。这类组织在设计上就是负责任的,它们可以超越合规性,专注于竞争优势。超过80%的人表示,他们将在2024年前将10%或更多的总AI预算用于满足监管要求,而有45%的人计划至少花费20%。大多数受访者(69%)已经建立了一些维度,但尚未建立起完善的负责任人工智能(Responsible AI)基础。其中,一些组织已经制定了一套治理框架(62.3%),一些组织已经定义了一套风险管理框架(40.7%),而另一些组织已经开始实施风险缓解工具和技术(44.1%)。这一群体理解负责任人工智能的价值,但他们尚未将其在整个组织中嵌入。最后,仍有25%的受访者尚未建立任何有意义的负责任人工智能能力。这组人将需要做最多少准备他们的组织以应对监管变化。 第二部分:准备就绪的障碍 通过设计变得有责任心准备就绪的障碍虽然大多数公司已经开始了负责任人工智能的旅程,但绝大多数(94%)在负责任人工智能的所有关键要素中难以实现落地。问题在于:为什么?我们确定了一些主要障碍。47%已定义风险管理框架39%已开始实施风险减轻工具和技术。最大的障碍在于负责任地扩展人工智能的复杂性——这项工作涉及多个利益相关者,并跨越整个企业和生态系统。62%已开发了一个治理框架 我们的调查发现,近70%的受访者没有一套完全运作和整合的责任人工智能治理模型。随着新需求的涌现,它们必须被嵌入到产品开发流程中,并与其他监管领域(如隐私、数据安全和内容)相连接。此外,在监管定义出来之前,组织可能不确定该做什么。围绕部署过程/时间的不确定性(35%)以及跨地区可能存在的不一致标准(34%)是与未来人工智能监管相关的主要担忧。这种模糊性可能导致公司在采取“观望”策略时陷入战略瘫痪。正如GDPR所证明的那样,反应迟缓的公司除了专注于合规性几乎没有选择,优先考虑具体要求而不是潜在风险,这可能会导致未来的问题……以及错失的价值。 GDPR的教训“打勾”的风险与主动规划的风险:2. 随着人工智能的不断发展,风险状况也在演变。新技术和应用案例不断出现,同时不同国家和地区的合规要求也各不相同。为了应对法规,组织必须持续监控潜在风险,而不是具体要求。那些只关注GDPR合规的组织发现,其策略是脱节且不可持续的。虽然这对于所有受监管公司都适用,但对于那些可能面临全球范围内一系列不同法规的公司尤其如此。1. 组织在不断变化;新数据、应用、角色变化等意味着合规能力必须足够强大,以适应内部变化。只着眼于采取打勾方式的公司在内部变化不可避免发生时都失败了。 考虑这个:负责任的AI是跨功能的1. R语言,但通常生活在自己的隔间里。美国最大公司首席执行官协会——商业圆桌会,已发布指导意见。企业和政策制定者关于负责任地使用人工智能。但在实践中,负责任的人工智能往往没有得到组织最高层的密切关注和支持。大多数受访者(56%)表示,人工智能合规的责任完全由首席数据官(CDO)或同等职位(CDAO、CIO、CTO)承担。更重要的是,尽管需要跨功能合作,但只有4%的组织表示他们设立了跨功能团队。负责任的人工智能与整个组织相关,从数据与人工智能团队,到法律与风险部门,再到市场营销、人力资源和其他企业职能,更不用说产品负责人了。从首席高管层获得认同和支持将为整个组织的其余部分确立优先事项。 通过设计变得有责任心2. 风险管理框架是所有人工智能的强制要求,但它们并非通用解决方案。大约只有一半(47%)的受访组织已经制定了风险管理框架,尽管这是负责任地开发人工智能的前提条件。拟议的欧盟人工智能法案主要根据用例或背景定义了不同类别的人工智能风险。因此,一旦该法规被通过,风险管理框架很可能将成为必要的,以遵守该法规。即使是那些已经创建了一个框架的人,挑战在于以可持续的方式将其在整个组织中应用。人工智能是否负责不能在单一点上判断。必须不断检查。然而,我们的调查发现,70%的组织尚未实施所需的过程监控和控制来降低人工智能风险。 通过设计变得有责任心e是人工智能生态系统中的权力,但你3. 只有最弱的合作伙伴才能决定你的强弱理解协作生态系统和平台中各自的职责和任务将变得越来越重要——也越来越复杂。随着组织在接下来三年内既成为人工智能的用户又成为人工智能的提供者这一趋势日益增强,这一点尤为重要。需要供应商提供充分的证据证明其解决方案符合法规要求。由于任何供应商都不愿意透露支撑其解决方案的知识产权,这项任务变得更加复杂。大多数(如果不是全部)规模较大的组织都在涵盖许多合作伙伴的生态系统中运营。因此,监管将要求企业考虑其整个人工智能价值链(重点关注高风险系统),而不仅仅是为他们自己专有的要素。事实上,39%的受访者认为他们最大的内部挑战之一来自与合作伙伴的合作,而只有12%的人在第三方供应商的供应协议中包含了负责任人工智能能力要求。因此,采购第三方解决方案将 有公司既为人工智能解决方案的用户也是提供者,这创造了需要在多个合作伙伴/价值链中协调的附加要求 专业认证e是关键,但人才稀缺。4. 文化通过设计变得有责任心这里的一个可能的发展可能是创建一个专业认证为数据科学家。迄今为止,数据科学资格认证尚无公认的外部标准或特许状态。创建这些标准将有助于识别哪些数据科学家有资格在负责任的AI领域工作。重要的是,每位员工都应充分理解并信任组织为确保负责任地使用人工智能而采取的稳健方法。调查结果表明,大多数组织在实现这一目标之前还有很长的路要走。例如,受访者报告称,他们缺乏熟悉人工智能监管细节的人才,其中27%的人称这为他们最关注的三个问题之一。此外,超过一半(55.4%)的组织尚未在整个组织中嵌入负责人工智能的具体角色。在数据科学人才 本已稀缺,组织必须考虑如何吸引或培养履行负责任人工智能(Responsible AI)角色所需的专业技能——同时要牢记,负责人工智能系统的团队也应当体现地域、背景和“生活经验”的多样性。他们带来的不同视角对于发现潜在偏见和不公平之处,以及在产品设计、构建和测试中减少无意识偏见至关重要。就人工智能而言,文化对于围绕负责任原则和实践统一整个组织至关重要。 测量至关重要,但成功5. 我由非传统KPI定义。最后,人工智能的成功不能仅由传统的关键绩效指标如收入增长或效率提升来衡量,但组织常常依赖这些传统基准和关键绩效指标。在30%的公司中,没有针对负责任人工智能的活跃关键绩效指标。没有建立起来的用于测量和降低风险的技术方法,组织就不能确信一个系统是公平的。对我们之前的观点而言,需要专家专业知识来定义和测量数据、模型和结果的负责任使用及算法影响——例如算法公平性。虽然没有固定的方法可以遵循,但采取主动方法来建设负责任人工智能的准备工作以克服或避免上述障碍是很重要的。 第三部分:通过设计变得负责 通过设计变得有责任心通过设计变得有责任心要实现设计层面的责任,我们相信组织需要从被动合规策略转向主动发展成熟的负责任人工智能能力。随着支持企业范围内负责任使用人工智能的基础设施建立,随着新法规的出现,适应变得更加容易。这样,企业可以更多地专注于绩效和竞争优势。基于我们帮助全球各组织扩展人工智能以实现商业价值的经验