2025年10⽉8⽇ 负责任的⼈⼯智能如何弥合投资与绩效之间的鸿沟? 2025年10⽉8⽇ ⼈⼯智能(AI)要发挥最⼤价值,必须以负责任的⽅式嵌⼊企业运营。这不仅意味着更⾼的利润,还意味着更⾼的员⼯满意度和更少的⾼成本错误。 简要概述 具备监督和实时监控的企业正在将AI从⻛险转变为增⻓引擎缺乏适当控制措施的企业将持续⾯临AI⻛险带来的重⼤财务损失⾼管层的盲点可能使企业暴露⻛险,必须对公⺠开发者进⾏有效监督 在AI领域表现突出的公司,不仅专注于打造更先进的模型——他们还在建⽴更智能的防护机制,以抓住超额市场机会。最新的安永全球负责任AI脉搏调查显⽰,那些通过明确原则、稳健执⾏和强有⼒治理来拥抱负责任AI的组织,正在收⼊增⻓、成本节约和员⼯满意度等关键指标上取得领先。这些收益并⾮微不⾜道,⽽是决定AI是成本中⼼还是竞争优势的关键分⽔岭。 调查结果显⽰,⼏乎所有企业都曾因AI相关事件遭受财务损失,平均损失保守估计超过440万美元。然⽽,那些采取治理措施(如实时监控和设⽴监督委员会)的企业,⻛险显著降低,回报更强劲。 负责任AI不仅仅是合规要求,它是⼀种驱动绩效的战略杠杆——最新数据已经证明这⼀点。 关于调研 安永推出“负责任AI脉搏调查”,旨在定期呈现商业领袖对负责任的AI采⽤的真实观点。本⽂是该系列的第⼆篇,基于2025年6⽉的调查结果。 在2025年7⽉和8⽉,安永全球组织开展调研,以深⼊了解⾼管层对负责任AI的看法——涵盖当前及下⼀波AI技术。研究基于⼀项匿名在线调查,覆盖975位来⾃10个职能⻆⾊的⾼管,所有受访者在其组织中均承担⼀定程度的AI相关责任。受访企业年收⼊均超过10亿美元,涵盖主要⾏业,分布于美洲、亚太、欧洲、中东、印度和⾮洲的21个国家。 负责任AI之旅:企业如何迈向全⾯治理 负责任AI不仅是⼀项技术要求,更是⼀段系统化的旅程,通常分为三个阶段: 第⼀阶段:沟通——企业在内部和外部明确阐述负责任AI原则第⼆阶段:执⾏——将原则转化为⾏动,通过控制措施、关键绩效指标和员⼯培训落地第三阶段:治理——通过委员会和独⽴审计等机制监督,确保⾏动与原则保持⼀致 ⼤多数企业已经踏上这段旅程。根据安永全球负责任AI脉搏调查第⼆波结果,⾼管层在这三个阶段采取的措施平均达到10项中的7项。 在科技、媒体、娱乐和电信(TMT)等⾏业,采纳率更⾼。这些⾏业对技术和数据的依赖,使负责任AI显得尤为关键。沟通⽅⾯,80%的企业向外部利益相关⽅传达负责任AI原则(其他⾏业为71%)。治理⽅⾯,74%已建⽴内部或外部委员会监督原则遵循情况(其他⾏业为61%),72%会进⾏独⽴评估(其他⾏业为61%)。 虽然在旅程的每个阶段都有⼀定流失,但差距很⼩,平均每⼀步仅下降⼏个百分点。⽽在尚未实施措施的地⽅,企业普遍表⽰计划采取⾏动——不到2%的企业表⽰没有实施计划。 这⼀进展⾄关重要。负责任AI不能仅靠原则实现,它需要“全⽅位”的⽅法:明确阐述原则、稳健的控制措施以及强有⼒的治理,才能确保负责任AI从⼝号⾛向现实。 负责任的AI是关键缺失环节 AI已为众多企业创造巨⼤价值。调查显⽰,⼋成受访者认为AI提升了效率和⽣产⼒——这是许多早期应⽤场景的核⼼⽬标。⼏乎同样⽐例的企业表⽰,AI推动了创新和技术采⽤,加速了⽣成式AI擅⻓的活动,如创意构思、探索、研发和快速原型设计。约四分之三的受访者认为AI增强了他们理解客户和快速应对市场变化的能⼒。 然⽽,在三个关键领域——员⼯满意度、收⼊增⻓和成本节约——AI尚未带来同等程度的改善。根据安永AI情绪调查,⼀半的公众担⼼AI导致失业,许多⼈仍对AI在⼯作决策中的⻆⾊持谨慎态度。对于许多企业⽽⾔,将AI投资转化为损益表上的实际改善仍然是⼀⼤难题。 安永全球负责任⼈⼯智能主管Cathy Cobey表⽰:“企业难以在AI投资中实现正向回报,主要原因在于整合过程的复杂性。这不仅需要流程再造、技能提升和持续的数据流投资,还⾯临遗留技术整合的挑战,以及治理框架不断演进的压⼒。这些因素共同阻碍了企业实现切实的财务收益。” 深⼊分析数据显⽰,⼀个显著趋势正在浮现:拥抱负责任AI的企业正在实现突破,⽽其他企业仍停滞不前。那些采取治理措施的组织——尤其是实时监控和设⽴监督委员会——在收⼊增⻓、员⼯满意度和成本节约⽅⾯更有可能取得改善,这些正是多数企业难以实现回报的领域。 公司更有可能实现以下提升的⽐例 识别绩效提升的关键驱动因素 为了确定哪些负责任AI措施能够真正推动绩效提升,我们采⽤有序逻辑回归模型,分析⼗项负责任AI措施中哪些能显著提⾼绩效改善的可能性,并通过优势⽐量化每项措施对收⼊增⻓、成本节约和员⼯满意度的影响。结果显⽰,有两项措施在这三个指标上具有统计显著性且积极作⽤。 这⼀发现揭⽰了⼀个共⽣关系:在负责任AI旅程中⾛得更远的企业,正是在最需要提升的领域取得了突破。这并不难理解——公开承诺负责任AI可以缓解员⼯焦虑,增强信任;传达负责任的做法有助于提升品牌声誉和客户忠诚度,最终推动收⼊增⻓。⽽稳健的治理不仅能防⽌昂贵的技术和伦理⻛险,还能降低招聘和留任成本,这些收益最终会反映在利润表上,提升成本节约。 对企业领导者⽽⾔,信息⾮常明确:要提升AI投资回报率,就必须在负责任AI旅程中更进⼀步。 忽视⻛险的代价:财务损失触⽬惊⼼ 负责任AI的采⽤能带来显著收益,但反之亦然——忽视它可能付出⾼昂代价。调查显⽰,⼏乎所有公司(99%)都报告因AI相关⻛险造成财务损失,其中64%的损失超过100万美元。平均⽽⾔,经历⻛险的企业损失保守估计为440万美元,按样本中的975家企业计算,总损失约43亿美元。 企业报告的最常⻅负⾯影响⻛险包括:未遵守AI法规(57%)、对可持续发展⽬标产⽣负⾯影响(55%)以及输出结果存在偏差(53%)。诸如可解释性、法律责任和声誉损害等问题⽬前尚不突出,但随着AI更⼴泛和更显著的应⽤,这些问题的重要性预计将不断增加。 令⼈⿎舞的是,负责任AI已被证明能降低⻛险。例如,明确制定负责任AI原则的企业,其⻛险发⽣率⽐未制定原则的企业低30%。 ⾼管层盲点:⻛险暴露的隐患 尽管财务⻛险巨⼤,许多⾼管层领导仍缺乏实施正确控制措施来缓解AI⻛险的能⼒。调查显⽰,当被要求将适当的控制措施与五种AI相关⻛险匹配时,仅有12%的受访者全部答对。 不出所料,⾸席信息官(CIO)和 ⾸席技术官(CTO)表现最好,但即便如此,只有约四分之⼀在所有五个⽤例中回答正确。 ⾸席⼈⼯智能官(CAIO)和⾸席数字官(CDO)的表现略⾼于平均⽔平(15%),这可能反映了他们的背景更多集中在数据科学、学术研究和模型开发,⽽⾮传统技术⻛险管理,因此在管理技术相关⻛险⽅⾯经验不⾜。 令⼈担忧的是,最终对AI⻛险负有责任的⾸席⻛险官(CRO)表现略低于平均⽔平,仅为11%。⽽在表现最差的群体中,⾸席市场官(CMO)、⾸席运营官(COO)和⾸席执⾏官(CEO) 分别仅有3%、6%和6%。 注:受访者⾯临的五⼤⻛险包括:幻觉问题、算法盲区或训练局限性、训练数据中的偏⻅、⾃主系统中的法律所有权问题,以及AI⽣成内容的透明度问题。 这种认知缺失带来了直接后果:因AI⻛险损失超过1000万美元的企业,仅实施了10项正确控制措施中的4.5项,⽽损失不超过100万美元的企业则实施了6.4项。这凸显了针对⾼管层进⾏有针对性的技能提升的迫切需求,尤其是在AI⻛险的财务和声誉成本持续上升的情况下。 前⽅挑战:⾃主型AI与公⺠开发者 治理挑战不会随着当前模型⽽结束。随着⾃主型AI在职场中⽇益普及,以及员⼯尝试公⺠开发,⻛险——以及对深思熟虑的控制措施的需求——只会不断增加。 “⾃主型AI的特性带来了新的⻛险,这些⻛险可能迅速升级。” ——Sinclair Schuller,安永美洲区负责任⼈⼯智能主管 令⼈⿎舞的是,⼤多数组织已开始实施治理政策来管理这些⻛险。我们识别的10项⾃主型AI治理措施中,有8项已被超过75%的受访者采⽤。这包括持续监控(85%)以及针对意外⾃主⾏为的事件升级流程(80%)。尽管企业已取得良好开端,但在设计有效控制措施⽅⾯仍存在挑战,这些措施必须能够充分监督持续运⾏、快速适应且需要最少⼈⼯⼲预的系统。 受访者关于内部治理的担忧⽰例 跨部⻔协作:“我注意到跨部⻔协作经常存在缺失。负责任AI不仅是IT部⻔的问题,合规部⻔也需要参与其开发过程,但这并没有实现。” 伦理准则:“公司必须在使⽤⾃主型AI(agentic AI)前建⽴并采⽤强有⼒的伦理准则,若缺乏相应的⼯具,将成为阻碍。”预算与资源分配:“我观察到预算规划通常与负责任AI治理的⻓期需求不匹配,导致在整个⽣命周期内缺乏⾜够资源来管理⾃主型AI。”⻛险管理复杂性:“此类系统的复杂性变化速度超过了传统⻛险管理⼯具的能⼒范围,公司只能被动预判⻛险,且完全缺乏对⾃主型AI相关⻛险的评估或缓解⽅法。”事件响应计划缺失:“我注意到许多公司仍未制定针对AI故障或滥⽤的事件响应计划,在意外故障发⽣时,将⾯临毫⽆保护的局⾯。”监督碎⽚化:“通常情况下,⼀个部⻔或职能领域使⽤AI的⽅式与其他部⻔脱节,导致评估流程不协调且混乱,进⽽引发⾃主型AI的⾮负责任使⽤。”责任归属缺失:“我观察到公司普遍缺乏对负责任AI治理持续性的明确责任归属,导致问责制出现漏洞。” 注:EY Insights分析基于⼤语⾔模型(LLM)技术,将开放式问卷回复按照预定义的精选分类法进⾏系统化分类和标注。总计36%的回复被归类到内部治理控制维度,此处⽰例均摘录⾃受访者的原话。 图6.内部治理问题是负责任使⽤⾃主型AI的⾸要关注点 Sinclair Schuller指出:“在⾃主型AI时代,系统以越来越⾼的⾃主性和复杂性运⾏,组织必须优先考虑实时监督:持续监控和快速响应能⼒是驾驭这些技术复杂性的关键。⾃主型AI的特性带来了可能迅速升级的新⻛险,因此必须建⽴稳健的控制措施,以防⽌代价⾼昂的中断并确保系统完整性。” ⼀个明显滞后的领域是为混合AI与⼈类协作的⼯作环境做好准备。只有三分之⼀(32%)的受访者表⽰其⼈⼒资源团队正在制定管理此类环境的策略。不过,鉴于⾃主型AI仍处于早期阶段,这⼀数字可以被视为积极信号,因为它表明企业已开始战略性思考该技术的⻓期影响。 公⺠开发者:机遇还是⻛险盲点? “公⺠开发者”的兴起——即员⼯使⽤⽆代码或低代码⼯具创建⾃⼰的AI代理——正在为企业带来更复杂的治理挑战。约三分之⼀(32%)的公司选择完全禁⽌公⺠开发,其余公司则从严格限制使⽤场景到积极⿎励不等,甚⾄有企业在团队间推⼴最佳实践。 ⾼管层最应关注的是声明政策与实际监督之间的不⼀致。在允许公⺠开发者的组织中,只有60%拥有正式的、覆盖全公司的框架,以确保与负责任AI原则保持⼀致,且仅有⼀半对实际活动具有⾼度可⻅性。即使在禁⽌这种做法的公司中,仍有12%承认缺乏对实际活动的可⻅性——这造成了治理缺⼝,使“影⼦AI开发”能够在未被察觉的情况下滋⽣,意味着企业实际上是在“盲⻜”。 ⾃主型AI和公⺠开发者的出现,强调了⼀个核⼼主题:负责任AI必须随着技术和职场⾏为同步演进。 如果企业希望在不增加⻛险的情况下抓住这些趋势带来的机遇,明确的框架、积极的监督和领导层的认知⾄关重要。 对企业领导者的启⽰ 以下是⾼管层可采取的三项⾏动,以强化AI治理与控制,推动业务成果: 1.采取全⾯的负责任AI⽅法 负责任AI的应⽤与AI驱动的绩效提升之间存在紧密联系,这向企业领导者传递了明确的信息:要从AI投资中获得更⼤价值——尤其是在财务绩效和员⼯满意度等关键领域——企业必须在负责任AI的旅程上更进⼀步。⼀套完备的实施路径应涵盖:明确并传达负责任AI原则,通过控制措施、关键绩效指标和培训将原则落地,并建⽴有效的治理机制。 2.填补⾼管层的知识空⽩ AI影响组织的⽅⽅⾯⾯。领导者必须了解其潜⼒与⻛险,以及缓解⻛险所需的控制措施。然