AI智能总结
生成的人工智能既带来了风险,也带来了机遇。这是一个路线图,可以减轻前者的负担,同时从第一天起就开始捕捉后者。 本文是Oliver Bevan,Michael Chui,Ida Kristensen,Brittany Presten和Lareina Yee的合作成果,代表了麦肯锡的风险与弹性实践和麦肯锡的QuantumBlack,AI的观点。 生成AI(geAI)为公司提供了千载难逢的机会,有可能在创新、增长和生产力方面产生变革性影响。该技术现在可以生成可信的软件代码、文本、语音、高保真图像和交互式视频。它已经通过晶体结构确定了数百万个新材料的潜力,甚至开发了分子模型,这些模型可以作为寻找治疗先前未治疗疾病的基础。 这种不安是可以理解的。与Gen AI相关的风险范围从潜在的训练数据中嵌入的不准确的输出和偏见到可能的大规模错误信息和对政治和个人福祉的恶意影响。在这两个方面也有更广泛的辩论 开发AI的可能性和可取性。这些问题可能会破坏Gene AI的明智部署,可能会导致公司暂停实验,直到更好地理解风险-甚至因为担心无法管理这些问题的新颖性和复杂性而降低技术的优先级。 麦肯锡的研究估计,gen AI有可能为全球经济增加4.4万亿美元的经济价值,同时将所有AI的影响力提高15%至40%。1尽管许多企业领导者决心抓住这一价值,但人们越来越认识到,人工智能的机遇伴随着巨大的风险。在最近对100多家年收入超过5000万美元的组织进行的快速调查中,麦肯锡发现,63%的受访者将人工智能的实施描述为“高”或“非常高”的优先事项。2然而,这些受访者中有91%的人没有“非常准备”这样做以负责任的方式。 然而,通过将经过验证的风险管理方法应用于Ge AI,有可能以负责任的速度采取行动,以良好的速度捕捉技术的价值。这样做还将允许公司在围绕人工智能的监管环境不断发展的同时有效运作,例如拜登总统关于一代人工智能开发和使用的行政命令以及欧盟人工智能法案(参见侧栏,“美国开始监管人工智能”)。此外,大多数组织可能会看到ge的使用。 AI增加“入站”威胁(可能影响的风险 美国采取行动规范AI 2023年10月30日,拜登政府发布了一份期待已久的行政命令,旨在解决与经济、国家安全和社会领域人工智能发展相关的问题。该命令确立了原则,要求联邦机构使用人工智能测试方法,编纂了政府对私人人工智能发展的监督,并概述了人工智能对国家安全和外交政策的影响: —整体AI治理。该命令为人工智能治理建立了一个全面的框架,强调道德、安全和保障。它解决了人工智能行业负责任的创新、协作和竞争的重要性。 —私营部门问责制。该命令要求参与人工智能的私营公司遵守行业标准,报告合规性,并实施最佳做法。这包括满足关于透明度和问责制的具体准则,特别是对于两用基础模型和大规模计算集群。 —跨部门影响。该命令涉及受AI影响的各个领域,包括关键基础设施,网络安全,教育,医疗保健,国家安全和运输。它促进机构间合作,以负责任地和安全地在这些部门整合人工智能,协调政府和行业的努力为了社会利益。 如何实施这些步骤的细节以及使其有效所需的变化程度将因组织的传统AI愿望和性质而异。例如,它可能希望成为基础模型的制造商,定制和缩放基础模型的整形器,或者通过很少或没有定制的现成应用程序(例如,标准办公生产力软件)采用基础模型的接受者。4 组织,无论他们是否部署gen AI),特别是在欺诈和网络领域(早期迹象表明,gen AI将能够击败标准的反欺诈生物识别检查3). Building适合目的的风险管理将有助于防范这些威胁。 实际上,寻求解决Gen AI风险的企业应采取以下四个步骤: 本文提供了一个蓝图,用于开发负责任地实施gener AI的方法。 遵循这些步骤可以帮助组织快速扩展技术并获取其优势,同时最大限度地减少潜在的缺点。 1.启动冲刺(sprint)以了解与gen AI相关的入站风险。 2.全面了解跨领域和用例的与gener - AI相关的风险的重要性,并构建一系列选项(包括技术和非技术措施)来管理风险。 了解和应对入站风险 根据我们的经验,包括通过构建麦肯锡自己的AI应用程序,与AI相关的风险可以分为八个主要类别(图表1)。这些类别既考虑了入站风险,也考虑了采用新一代AI工具和应用程序直接导致的风险。每个公司都应该开发这个核心分类法的一些版本,以支持对实施geAI所产生的风险的理解和沟通。 3.建立一个治理结构,平衡专业知识和监督与支持快速决策的能力,尽可能调整现有结构。 4.将治理结构嵌入运营模型中,该模型利用整个组织的专业知识,并包括针对最终用户的适当培训。 大多数组织可能会看到使用GeneAI会增加“入站”威胁,特别是在欺诈和网络领域。 附件1 生成式AI风险的八个基本类别中有一半适用于所有组织,无论其部署了相关用例。 -知识产权(IP)侵权,由于IP(例如图像,音乐和文本)被刮擦到基础大型语言模型的训练引擎中,并使使用该技术的任何人都可以访问 决定如何应对入站风险是 a focus for many executive teams and board. This decisionshould serve as a foundation for how 一个组织向其员工和利益相关者传达有关gen AI的信息。它还应该告知用例的方法。 大多数组织将受益于重点冲刺,以调查geer AI如何改变其外部环境,有两个主要目标。首先是了解对入站风险的潜在风险,这些风险基于组织的风险状况(例如,有多少第三方可以访问敏感或机密数据,这些数据需要限制训练外部geer AI模型)。第二个目标是了解控制环境的成熟度和就绪性-组织具有的技术和非技术能力。 我们从采用Gen AI中看到了入境风险的四个主要来源: —安全威胁,是由于启用了Gen - AI的恶意软件的攻击数量和复杂性增加所致 到位,以预防、检测和最终应对入境风险。这些包括网络和欺诈防御,第三方尽职调查,以确定关键第三方可能在哪里部署gen AI, —第三方风险,由挑战导致了解第三方可能在何处以及如何部署Gen AI,创造潜在的未知风险 以及限制用于训练大型语言模型的引擎对公司IP的刮擦的能力。 —恶意使用,原因是不良行为者可能会制造令人信服的公司代表或品牌假货,从而导致严重的声誉损害 技术的采用。这可能需要投入时间和资源,并改变工作方式。然而,如果组织要从ge AI中获得长期、可持续和变革性的利益,这是至关重要的。失误和失败可能会削弱高管、员工和客户的信心,并引发对产生有限风险但也不太可能利用该技术真正潜力的超用户用例的野心。 这些努力的结果应该是了解组织面临最大的潜在入境风险的地方,以及其当前防御系统的成熟度和准备情况。进行了这项练习后,组织应该有一个清晰的路线图,说明在哪里加强防御,以及这些努力在潜在风险缓解方面的潜在投资回报率。 考虑到AI基础技术及其应用的不断发展,组织将需要重复努力,以一定的规律性来识别他们的暴露。对于大多数组织来说,至少每半年刷新一次这项练习将是重要的,直到变化的步伐放缓,控制环境和防御已经成熟。 希望为Geeral AI部署高潜力用例以推动生产力和创新;提供更好,更一致的客户服务;并提高营销和销售创造力的组织必须应对负责任实施的挑战。这些用例具有不同的风险概况,既反映了技术本身的性质,也反映了有关用例细节的公司特定上下文(例如,将AI聊天机器人部署到某些风险人群。 与B2B部署的风险状况截然不同) (图表2)。 TetheringPrometheus:管理采用新一代AI所产生的风险 有雄心部署Gene AI的组织将需要进行额外的持续努力,以了解和管理 识别不同用例的风险 在进行此分析时,重要的是要制定一个指标来校准各类别高风险与中等风险的预期。否则,组织可能会遇到分歧,而不是客观因素,这更多地是由个人对风险水平的舒适度驱动的。以数据隐私为例,我们通常认为高风险的例子需要个人或敏感信息来准确训练模型(或者用户在与技术交互时输入个人信息的可能性更高)。低风险用例不会表现出这些特征。 组织部署gee AI用例的基本出发点是在关键风险类别中映射与每个案例相关的潜在风险,以评估潜在风险的严重程度。例如,支持客户旅程的用例,例如支持Ge - AI的客户服务聊天机器人,可能会增加风险,例如跨群体的偏见和不公平对待(例如,按性别和种族),用户输入敏感信息的隐私问题,以及模型幻觉或过时信息的不准确风险(图表3)。 附件3 使用这种逻辑,开发支持顾问提供量身定制的财务建议的应用程序在隐私风险暴露方面的排名往往高于自动化基本合同模板的应用程序。 流程的生命周期。重要的是,这些控件并不都需要嵌入到底层基础模型本身中(许多组织都无法访问)。有些可以 是在本地环境中构建的覆盖,就像由人力资源部门对员工福利进行实地查询(图表4)。 重要的是,负责用例的主管领导对与其相关的风险的初步评估(作为产品经理在有效运营模型中的角色的一部分)。这促进了对潜在风险的适当认识,并在用例被批准用于最终开发时对其进行管理。此外,跨职能小组,包括业务负责人以及法律和合规职能部门的成员,应审查和验证所有用例的风险评估。 在该用例中,在查询的整个生命周期中,一旦用户提出问题,就会出现许多可能的缓解措施。它们包括让聊天机器人询问澄清问题以生成其他必要的用户输入,让用户确认聊天机器人已正确理解查询,限制聊天机器人可以访问的数据集类型(例如,排除个人信息),并设计聊天机器人以提供引文来解释其答案,并允许对其响应进行事实检查。实现此用例的组织可以采取步骤(如 在做出有关用例优先级划分的决策时,使用结果作为输入。 作为限制重复的互动)来挫败 考虑在每个接触点管理风险的选项 一旦组织映射了与Gen - AI相关的风险,它必须制定策略来通过结合缓解和稳健治理来管理风险敞口。许多(但不是全部)缓解措施本质上是技术层面的,可以在整个 已知会给聊天机器人带来挑战的攻击媒介和越狱。他们可以 还开发分类器来识别和拒绝超出范围的查询(如请求计算)。 生成的AI风险可以在用户交互中的多个点上得到缓解。 与内置检查点进行示例HR聊天机器人交互,以捕捉潜在的失火 例如,在HR聊天机器人的例子中,作为查询答案的一部分生成源的能力也可以应用于员工试图向客户解释产品或构建对等公司的分析的用例中。在这两种情况下,这将在一定程度上解决“可解释性”和产出总体信心方面的挑战。 在开发用例时,组织应考虑其他非技术缓解措施的重要类别。在AI成熟阶段的这一阶段,大多数组织都在维护人力,以防止技术能够将产出直接投入生产或直接与最终客户互动。 As previously referenced, contractual provisions to guardproblems use of data from third parties are important. As athird example, organization - 应制定编码标准和库,以捕获适当的元数据和方法标准,以支持审查。 通过治理通过审慎的风险管理来平衡速度和规模 使用Gen AI将对大多数组织提出新的要求,以调整治理结构以响应批准和行使监督的要求。但是,大多数组织应该能够通过扩大任务或覆盖范围来适应他们今天的情况(图表5)。这将限制 Gen AI的许多初始缓解策略跨越多个用例,使组织能够从其技术缓解措施中获得可扩展的收益,而不必创建定制的方法 在降低风险的同时快速行动通常需要修订治理。 麦肯锡公司 —负责任的AI人才和文化。对负责任的AI的承诺不能仅仅停留在高管级别。相反,它需要在整个组织中进行级联,并根据相关角色对技术的相关暴露程度定制问责制,能力建设和意识。应该开发和推广有关负责任的AI的基本组织培训,以广泛了解入境风险的动态以及如何安全地使用该技术。例如,考虑到模型产生幻觉的可能性,作为培训的一部分,用户应该被告知,他们不