简介 … … … … … … … … … … … …… … … … … … … … … … … … … …… … … … … … … … … … … … … …… … … … … … … … … … … … … …… … … … … … … … … … … … … …… … … … … … … … … … … … … …… … … … … … … … 2 。识别企业生成式AI机会..............................2 采用挑战.........................................................2 评估企业部署技术成熟度................................................5 企业部署策略...................................................6 对企业生成式AI的期望..........................................7当前企业生成式AI的状态........................................8 克服企业问题..............................................10 开放型和小型模型如何与企业优先事项相匹配?.......................................................12供应方观点 … … … … … … … … … …… … 15理解AI供应生态系统..........................15供给方挑战...................................................18 生成式AI监管现状与预期.................................................18结论 … … … … … … … … … … … …… 22 ChatGPT于2022年的发布常被与人工智能(AI)领域的“iPhone或智能手机时刻”相提并论。如今,这项技术对于消费者和企业来说比以往任何时候都更加易于获取。在快速发展的机器学习(ML)生态系统中,基础模型已经彻底改变了企业应用中生成式AI的部署速度和成本。这带来了显著的机会,包括成本削减、流程自动化,甚至通过开发新的/增强的服务来创造收入。市场研究公司ABI Research预计,到2030年,生成式AI将在各个企业垂直领域为企业带来超过4万亿美元的价值。然而,尽管机会众多,但在过去两年里,企业部署并未如许多人所期望的那样迅速加速。供需双方的挑战都是造成这一现象的原因。本白皮书将探讨并解决这些市场摩擦。 生成式AI市场继续以惊人的速度发展,但企业采用仍处于早期阶段。企业在将“安全”的应用场景推向市场时面临挑战。最令人担忧的应用场景是面向客户的,目前大多数可扩展且生产就绪的应用场景仍然主要是内部使用的。 识别企业生成 AI 机会 尽管企业采用仍处于早期阶段,但巨大的机会随处可见。生成式AI提供了降低成本、开辟新的收入流以及自动化现有流程的可能性。如图1所示,这些机会概览如下。 ( 来源 : ABI Research) 采用挑战 各种企业正在将生成式AI应用于多种不同的场景,既包括内部应用也包括外部应用。然而,市场的大多数部分仍在努力从试点阶段过渡到实际应用。 © 2021 ABI 研究概念 (PoC) 到规模生产。这种市场摩擦的基础是生成 AI 给企业带来的风险。虽然高管们愿意开发 PoC 来展 示该技术的潜力,但由于该技术的相对不成熟和相关风险,他们仍然犹豫不决。这样做的结果是 “孤立 ” 的点部署或长寿命 PoC,而没有明确的企业规模时间表。以下部分重点介绍了与大规模生成 AI 部署相关的一系列风险和挑战。 业务风险与挑战 • 天赋:企业对新生成式AI模型的可用性感到措手不及。很少有企业为部署和使用这些模型做好了相应的技能提升或招聘准备。这意味着企业面临着严重的技能缺口,这阻碍了它们以成本有效的方式部署、管理并扩展生成模型的能力。这不仅仅是关于训练基础模型(FMs),因为这些模型的训练往往由第三方完成,而是整合、优化、微调、监控和管理这些模型所需的技能至关重要,这些技能可能会成为部署的巨大障碍。 • Cost:训练、微调、运行和管理大规模生成式AI模型的成本高昂。尤其是在依赖云计算环境,并且每天需要在多个图形处理单元(GPU)上运行工作负载的情况下,这一成本更为显著。尽管生成式AI具有明确的投资回报率(ROI),但固定和可变成本将非常高,这将为企业的发展设立一个重要的障碍。 • 大规模 AI 管理 :行业评论员认为,随着企业生成式AI的采用规模扩大,小型语言模型(SLMs)将在各个业务部门中部署以支持特定应用。这意味着企业将部署数十个甚至数百个不同的AI模型。每个模型都需要进行训练、部署、监控、优化、微调、应用程序调试、数据管理以及一系列其他机器学习过程。如果没有自动化,这将耗费大量人力并造成显著的管理难题。 • 结构:最大化通过生成式AI采用创造的价值需要在整个企业范围内整合每一个可行的过程。这涉及重大的运营变革管理(OCM),以应对流程、系统和运营结构。由于大多数企业在“早期”生成式AI的可用性方面措手不及,他们仍在进行重组以适应这项技术。预期将出现现有流程的转型、招聘政策的变化、内部治理的调整、技能提升以及更多领域。 • 控制和所有权 :企业内部的监管和治理需要加强对知识产权(IP)和客户数据的控制。这阻碍了生成式AI的应用部署,因为第三方模型往往没有明确说明用户提示或数据的存储和利用方式。这一挑战还延伸到数据主权问题,即必须将客户数据保留在区域或国家边界内。第二个挑战在于谁拥有AI输出的数据。第三个挑战则来自于使用受版权保护的数据训练大型语言模型所带来的法律风险,这些问题在市场上不断浮现。 • 功耗即使与“传统AI”相比,生成式AI模型在训练和推理过程中也需要显著更多的计算能力,这归因于其庞大的规模。随着企业规模扩大并增加生成式AI的推理应用,企业数据中心的能源需求将带来挑战,尤其是在可持续性方面。 • 缺乏生成式 AI 部署的全球统一政策 / 最佳实践 :生成式AI的商业成熟度面临的监管响应呈现出碎片化特征。一些地区,如美国,依赖自我监管; 而另一些地区,如欧盟,则实施更为严格的监管措施以减轻大规模应用AI可能带来的潜在负面影响。这将为企业部署带来监管风险,尤其是对于跨国公司而言。 • 地缘政治紧张局势 :越来越多地,AI硬件(和软件)在持续的地缘政治争端中扮演着重要角色。例如,美国已禁止向中国出口高性能芯片组。这为希望在地区内开发和部署AI的企业带来了不稳定性。 技术挑战 透明度和可解释性 :常常被称为“黑盒”,闭源的大语言模型(LLM)不允许用户查看底层源代码或权重。这意味着最终用户无法解释某些提示为何会产生特定输出。这使用户面临重大风险,并且在企业环境中,开发人员无法排查故障、修改或调整模型权重以确保准确的输出。 • Trustworthness:幻觉是部署过程中的主要风险。众多高调案例显示,生成错误答案可能导致的商业和声誉问题潜在严重。这些问题可能源于偏见、训练数据不准确或不足、模型所做的错误假设,甚至是在没有适当AI防护措施的情况下用户干预导致的幻觉。一个实际案例发生在ChatGPT上,它生成了虚假的引语,并将不存在的法庭案例包含在由ChatGPT自动生成的法律文件中。 • 可靠性:关键任务用例依赖于低延迟和高可用性。然而,随着模型规模的扩大,资源将需要执行更多的计算操作,这可能会因可用性方面的挑战而造成瓶颈。例如,一个面向公众的聊天机器人可能无法扩展以同时处理成百上千个客户端的查询请求。可用性挑战的基础在于计算资源的稀缺性,尤其是在面临GPU供应链挑战的情况下。 • Data:作为生成式AI部署的基础元素,数据带来了诸多相关挑战。首先,可供训练和微调使用的精心策划的数据集的可用性是一个挑战。其次,涉及数据主权、安全性和知识产权(IP)的问题是重大挑战,尤其是在使用如ChatGPT这样的第三方AI应用时。这导致了许多知名企业禁止使用第三方系统。第三,对于基础模型(FMs)而言,关于使用第三方数据的用途存在模糊性。第四,围绕客户数据以及将其用于模型训练时合理的反对意见也是一个核心问题。 • Off - the - Shelf Models:即使行业领先的大规模生成式AI模型在大多数情况下也只能达到低于70%的准确率。这意味着,尽管预训练模型能够加速时间价值(Time to Value, TTV),但在实现“可接受”的准确率方面仍需要大量的ML运维(MLOps)工作,因此部署生成式AI仍然需要大量时间和资源以及专业人才。这进一步造成了行业内的人才瓶颈,从而延缓了部署进程。准确率只是评估生成式AI模型的一个指标;除此之外,企业通常还会衡量模型处理复杂推理和问题的能力(例如GLUE、SuperGLUE)以及训练数据集的准确性。 企业部署技术成熟度评估 虽然大语言模型(LLMs)带来了显著的能力,但它们尚未准备好立即在企业应用中部署。原因众多,尤其是在幻觉、准确性、性能、上下文理解和计算资源使用方面。所有这些因素都导致了企业生成式AI性能的放缓。图2提供了企业通过“预训练”的LLMs并在机器学习管道中部署的结构分解。 在这个过程中 , 企业面临着许多重大挑战。 • 培训数据:数据往往分散在各个业务单元中,这使得集中模型微调变得困难且耗时。企业将需要经历一个数据重构的过程,以构建有效的数据织网,这些数据织网将成为AI训练和部署的基础元素。此外,使用私有客户数据进行模型训练还带来了风险和挑战。客户的重大担忧之一是,公司可能通过利用其数据进行模型训练而泄露其知识产权给竞争对手。 © 2021 ABI 研究• 优化:预训练的基础模型规模庞大且通用;企业应用则较为狭窄,因此只需少量参数即可有效运行。优化过程确保大型语言模型(LLM)能够高效部署以最大化准确性并减少资源消耗。这一过程并非新鲜事物,但用于生成式AI的LLMs更为复杂和精细,使得传统的技术如量化方法更具挑战性。 • 微调:这是将预训练的语言模型适应特定任务或知识的过程。这个过程要求开发人员通过在特定数据集上重新训练基础模型来更新参数。具体而言,语言模型会使用输入和输出对进行重新训练以表示期望的行为。目标是提高特定主题事项或行为类型的输出准确性。例如,对于医疗聊天机器人,微调可以优化通用预训练语言模型的输出,使其适用于特定术语和主题领域。微调耗时且成本较高,因为它需要数据准备并通过监督学习来进行,开发者需要对输出进行接受或拒绝以调整模型响应,并依赖GPU加速计算。 • 模型开发人员和系统工程师之间的差距 :另一种AI部署的瓶颈在于不同流程之间的差距。通常情况下,AI开发者会在没有考虑实际部署环境的情况下构建和测试模型,这在这些模型实际进入生产环境时会带来挑战。这将延长企业级生成型AI模型的实际上市时间(TTV)。 企业部署战略 企业级生成式AI的部署必然需要时间,鉴于企业面临的各种技术和战略挑战。然而,随着企业评估其对生成式AI采用的战略方法,多种不同的选项已经敞开。表1探讨了四种部署策略;然而,随着供应侧推出更多“企业级”的服务,ABI Research预计将会出现更多的机会。 ( 来源 : ABI Research) 像ChatGPT这样的API服务已经在早期试点部署中占据主导地位。这些工具正被跨业务部门横向应用于诸如市场研究或搜索等简单流程。然而,企业正在越来越多地超出API的范围,利用内部专业知识或第三方合作伙伴来构建应用程序,以制定有效的长期生成式AI战略。鉴于人才短缺和潜在总价值(TTV)的考量,由第三方管理的服务将在下一波企业采用中占主导地位。从中长期