您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[麦肯锡]:人工智能现状:组织如何重新布线以获取价值 - 发现报告

人工智能现状:组织如何重新布线以获取价值

信息技术2025-03-01麦肯锡向***
AI智能总结
查看更多
人工智能现状:组织如何重新布线以获取价值

人工智能的状态 组织如何重新布线以捕获价值 AlexSingla亚历山大·苏哈列夫斯基拉瑞娜·怡MichaelChui布莱斯·霍尔 2025年3月 组织开始创建能够从生成式AI中获得有意义价值的结构和流程。虽然仍处于早期阶段,但公司正在重新设计工作流程,提升治理,并降低更多风险。 O 组织开始采取推动措为施了。 组织变革旨在从生成式人工智能中创造未来价值,大型企业正引领潮流。麦肯锡最新的全球人工智能调查发现 底线影响——例如,在部署生成式人工智能的同时重新设计工作流程,并将高级领导置于关键岗位,例如监督人工智能治理 。调查结果还显示,各组织正努力减轻日益增长的生成式人工智能相关风险,并在重新培训员工参与人工智能部署的同时招聘新的与人工智能相关的职位。年收入至少为5亿美元的公司变化速度比小型组织更快。总体而言,人工智能的使用——即生成式人工智能以及分析型人工智能——仍在不断加速:现在超过四分之三的受访者表示,他们的组织在至少一个业务职能中使用了人工智能。特别是生成式人工智能的使用正在快速增长。 公司如何组织其生成式人工智能的部署——以及由谁负责 我们的调查分析表明,CEO对人工智能治理的监督——即开发和应用负责任的人工智能系统所需的政策、流程和技术——与组织使用生成式人工智能所带来的更高自我报告的最终影响最相关。1那在大公司中尤其如此,CEO的监督是影响归属于生成式AI的EBIT的最关键因素。28%的受访者表示 ,其组织使用AI,CEO负责监督AI治理,但在年收入超过5亿美元的大公司中,这一比例较小,有17%的人表示AI治理由其董事会负责。在很多情况下,AI治理是共同拥有的:受访者平均表示有两位领导者负责。 人工智能的价值在于改变了公司运营的方式,并且最新调查显示,在针对各种规模组织的25个测试属性中,工作流程的重新设计对组织利用生成式人工智能产生EBIT影响的能力影响最大。随着组织部署生成式人工智能,他们开始重塑自己的工作流程。21%的受访者表示,他们所在的组织已经从根本上重新设计了至少部分工作流程。 百分之二十八的受访者表示,其组织使用人工智能,且CEO负责监督人工智能治理。 1相关分析考虑了25个属性,并评估了生成式AI对企业EBIT的影响,使用约翰逊的相对权重回归分析得出R平方为0.20。这些属性包括:哪些领导者负责企业AI治理、企业如何管理生成式AI部署节省的时间(例如,为员工分配全新的任务、减少工作时间、减少人员编制)、企业是否因生成式AI部署而根本性地重新设计了至少部分工作流程,以及他们是否采用了12项生成式AI采用和扩展最佳实践 :1)成立专门的团队推动生成式AI采用(例如,项目管理办公室、转型办公室或专门的采用和扩展团队);2)定期进行内部沟通,探讨其生成式AI解决方案创造的价值,以建立意识和动力;3)高级领导者积极推动生成式AI采用,包括示范使用生成式AI;4)将生成式AI解决方案有效嵌入业务流程(例如,改变一线员工流程、创建用户界面整合生成式AI解决方案);5)建立基于角色的能力培训课程,确保各层级的员工知道如何适当使用生成式AI能力;6)创建全面的方法,培养员工对企业使用生成式AI的信任(例如,理解原始数据来源、减轻不准确性);7)建立机制,将生成式AI解决方案的性能反馈纳入其中,并随着时间的推移进行改进;8)制定明确的路线图 ,推动生成式AI解决方案的采用(例如,在团队和业务单元中分阶段推广);9)制定关于生成式AI采用必要性的有说服力的变革故事 ;10)跟踪明确定义的生成式AI解决方案KPI,以洞察其采用情况和投资回报率;11)建立员工激励措施,强化生成式AI采用;12)创建全面的方法,培养客户对企业使用生成式AI的信任(例如,监管合规透明度、客户数据使用)。 麦肯锡评论 亚历山大·苏哈雷夫斯基于 量子布莱克高级合伙人及全球联席负责人,麦肯锡人工智能 我们越看到组织使用人工智能,就越意识到它需要自上而下的流程才能真正取得进展。有效的人工智能实施始于完全投入的C级高管,理想情况下,还需要一个积极参与的董事会。许多公司的本能是将实施委托给IT或数字部门,但一次又一次,这证明是一种失败的公式。 有几种原因。第一是,要真正从人工智能中获得价值需要转型,而不仅仅是新技术。这是一个关于成功变革管理和调动的问题,这也是为什么高管层领导至关重要。同时,这也可能是一个昂贵的转型,需要密集使用有时稀缺的资源和人才。资源的可用方式取决于这一点,这是一个需要高层决定的、需要细微决策的问题,这种决策反映了组织在高效资源利用和广泛赋权之间必须保持的平衡——随着技术和组织的发展,这种平衡必须不断重新评估。 随着组织在人工智能方面的能力越来越强,它将成为所有职能中的基本组成部分,从而让领导者能够专注于更高级别的任务,如影响监控和人才培养,而不是实施。 百分之二十一 报告其组织使用通用人工智能的受访者表示,他们的组织已经从根本上重新设计了至少部分工作流程。 组织正有选择地将人工智能部署的元素集中化 调查结果还揭示了组织如何构建其人工智能部署工作。部署人工智能的一些关键要素往往会全部或部分集中化(图1)。对于风险和合规以及数据治理,组织通常会使用全部集中化的模式,例如卓越中心。另一方面,在技术人才和人工智能解决方案的采用方面,受访者最常报告使用混合或部分集中化的模式,其中一些资源由中央处理,而另一些则分布在职能或业务单元中——尽管年收入不到5亿美元的组织的受访者比其他人更有可能报告这些要素全部集中化。 网页<2024> <GenAI2024-2> 表1附件<1>中的<14> 风险和数据治理是部署人工智能解决方案中最集中的两个要素,而技术人才通常是混合的。 人工智能部署的集中度,¹受访者百分比 集中式 29 49 22 “HUB”模型 57 30 13 46 39 15 36 48 16 35 44 21 去中心化“SPOKE”模型 23 54 23 完全分布式(例如,所有资源生活在 业务功能) 混合(例如,某些)资源是 主要集中式和有些是分布跨越function) 完全集中化(例如,一个枢纽或中心)卓越的公式是 跨部门负责组织) 风险和 数据 人工智能战略 路线图 技术人才(例如 收养 合规性 治理 人工智能增强 数据工程师 人工智能解决方案 对于人工智能 或人工智能聚焦 和机器 (包括 产品 学习 更改pro- Engineers) 过程,改变 管理) ¹问题仅针对组织在至少1个功能中使用AI的受访者提出,n=1,229。数据在剔除表示“不知道/不适用”的受访者比例后计算得出。资料来源:麦肯锡全球人工智能现状调查,所有层级组织的1,491名参与者,2024年7月16日至31日 麦肯锡公司 百分之二十七的受访者表示,他们组织中的员工在使用前会审查所有由生成式人工智能创建的内容,而相似比例的受访者表示,检查的生成式人工智能生成内容不超过20% 。 组织在监控生成式AI输出方面存在很大差异 组织有员工监督生成式AI输出的质量,尽管这种监督的程度差异很大。27%的受访者表示,在其组织中使用生成式AI的企业中,员工在使用生成式AI创建的所有内容之前进行审查——例如,在客户看到聊天机器人的回复之前,或在AI生成的图像用于营销材料之前(图2)。相似比例的受访者表示,在使用前,只有20%或更少的生成式AI生成的内容被检查。在商业、法律和移除说“不知道/不适用”的份额。 其他专业服务的人员比其他行业的人员更有可能说所有来源:麦肯锡全球人工智能现状调查,1491名来自各层级的组织参与者,2024 年7月16日至31日 输出被审查。 ¹仅对那些在其组织中至少使用1个功能的AI的受访者提问,n=1,229。数据计算方法为 网页<2024> <GenAI2024-2> 第2号展品图<2>中的<14> 受访者表示,他们的组织审查所有生成式AI输出的可能性与表示很少被审查的可能性大致相同。 使用前已评审的生成式AI输出占比,¹受访者百分比 高达20%21%至40%41%至60%61%到80%81%至99% 100% 27 10 9 12 13 30 1仅针对其组织常规在至少1个功能中使用generativeAI的受访者提问。数据计算时已剔除选择“不知道”的受访者;n=830。资料来源:麦肯锡全球关于人工智能现状的调查,1,491名来自该组织各级别的参与者,2024年7月16日至31日 麦肯锡公司 组织正在应对更多与生成式AI相关的风险 许多组织正在加大力度以减轻与生成式人工智能相关的风险。受访者比2024年初更倾向于表示,他们的组织正在积极管理与其不准确、网络安全和知识产权侵权相关的风险(图3)——这些都是受访者最常表示已对其组织造成负面后果的与生成式人工智能相关的三种风险。2 网页<2024> <GenAI2024-2> 图3展示<3>中的<14> 受访者报告称,与使用生成式人工智能相关的误差缓解、知识产权侵权和隐私风险正在增加。 组织正在努力缓解的与生成式人工智能相关的风险1受访者百分比 不准确 50 40 30 20 10 0 四三七月 智慧属性 网络安全侵权 监管合规性 个人/个体隐私 可解释性 劳动力/ 劳动位移 20232024 股权和组织 公平性声誉 20 10 0 四三七月 国家物理环境 安全安全影响 政治稳定性 Noneof以上 20232024 1仅针对使用人工智能至少1个业务功能的受访者提出。表示“不知道/不适用”的受访者未显示。资料来源:麦肯锡全球调查:人工智能现状,2023-24 麦肯锡公司 2调查结果显示,自2024年初以来,报告因使用生成式人工智能而产生负面后果的受访者比例变化不大。47%的人表示他们的组织至少经历过一种后果,而2024年初的比例为44%。 大型组织中的受访者报告承担的风险比其他组织的受访者更多。他们更有可能说他们的组织正在管理潜在的网络安全和隐私风险,例如,但他们并没有更有可能处理与人工智能输出的准确性或可解释性相关的风险。 麦肯锡评论 AlexSingla 量子布莱克高级合伙人及全球联席负责人,麦肯锡人工智能 在过去的两年里,我们学到了很多有关生成式人工智能的东西。但也许最重要的教训是:敢于宏伟地思考是有益的。那些从其人工智能努力中建立起真正和持久的竞争优势的组织,是那些从全局变革的角度思考,足以改变其商业模式、成本结构和收入流的组织——而不是循序渐进地推进 。 我们帮助组织创建和部署生成式人工智能系统的经验也表明,从一开始就抱有雄心壮志是值得的 ——追求端到端的解决方案来变革整个领域,而不是采取逐个用例的零散方法。以一个统领全局 、企业级的变革愿景为起点,为未来发展开辟了可能性。这是因为你对目标清晰的认识会影响你采集的数据和你构建的模型。你在考虑诸如访问控制、安全;前端代码的可重用性,而不是事后才考虑;以及创建一个超越任何单个用例或领域的基础基础设施等问题。这允许比逐个用例部署更快速、更经济地部署进一步的功能——这反过来又成为竞争对手难以追赶的竞争优势。 变革性思维还迫使CEO和高管团队保持一致——而用例思维则不会如此。这至关重要,因为成功的转型需要企业各部门协同一致,形成统一协调的努力——而这种统一协调通常只有在CEO和其他高管参与时才能实现。 大型组织中的受访者报告称,他们应对的与gen-AI相关的风险比其他受访者更多。 不到三分之一的受访者报告称,他们的组织正在遵循大多数关于生成式人工智能的12项采用和扩展实践。 采用和扩展的最佳实践可以创造价值,公司开始遵循它们 大多数受访者尚未看到使用生成式人工智能所带来的全组织范围内的底线影响——而且大多数人也尚未实施我们所知的采用和扩展实践 早期研究帮助在部署新技术时创造价值。在补充性 在一系列成熟市场中的调查,只有1%的公司高管将他们的生成式AI推广描述为“成熟”。尽管这些仍