您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [abiresearch]:企业部门的生成 AI : 供应商如何应对炒作 - 发现报告

企业部门的生成 AI : 供应商如何应对炒作

信息技术 2023-08-13 abiresearch yuAner
报告封面

供应商如何满足需求 供应商可以如何利用对GENERATIVEAI的需求增加在企业空间 自去年年底以来,像ChatGPT这样的生成预训练变压器(GPT)应用程序已经引起了人们对生成人工智能(GeAI)的巨大兴趣。到目前为止,GeAI的机会仅限于企业对消费者(B2C)领域,而企业对企业(B2B)在很大程度上未定义。从长远来看,GeAI对B2B领域产生了巨大影响,ABIResearch预测,到2030年,它将在各个垂直领域贡献约4500亿美元的价值,但一些企业挑战阻碍了目前的采用。从提高员工生产力,运营效率到服务增强甚至广泛的自动化,GeAI的价值太大了,无法传递。 我们仍处于企业生成AI的早期阶段,第一批部署是为低挂用例保留的,因为这些用例的风险不是很高。但目前不太可能进一步采用,因为风险回报警报正在高管级高管中响起,如数据安全、知识产权(IP)保护、版权侵权和碎片化的可能性,所有这些都是由显著的技能和知识差距支撑的。此外,今天的生成AI模型太大而通用,缺乏满足企业投资标准所需的性能、任务效率、成本效益和安全性。 Butthesupplysideofthemarketremainsactiveastheylooktobuildoutasuccessfulbusiness-to-business(B2B)proposition.Manyjuggernauttechfirms,aswellasstarts,aredevelopinggenerativeAImodel,applications,andservices.However,astheyexplore www.abiresearch.com 当他们驾驭新的商业领域时。最重要的是,成本危机正在出现。构建、培训和运行生成式人工智能模型有巨大的开销。克服这场危机不能依赖现金轻的B2C市场或现有的“免费增值”收入模式,因此他们必须积极主动,开始测试新的货币化和产品策略。 什么是让一代AI回到企业现在? 与企业对消费者(B2C)领域不同,企业部署AI带来了巨大的风险,需要在投资之前权衡潜在的回报。这种风险导致了对像ChatGPT这样的第三方“黑匣子”生成AI服务的明显“禁令”。虽然生成式人工智能企业用例不断涌现,但提供商业价值不能依赖于大型、广义的模型,因为它们缓慢、不安全、昂贵、不适合它们所服务的任务,并且容易出现危险的幻觉。相反,对特定数据集进行微调的较小的上下文模型将提供更大的投资回报率(ROI)。例如,华尔街的一家投资公司可能希望开发一种基于人工智能的工具来分析股市,并告知用户关键趋势。或者公用事业提供商想要一个可以预测未来能源需求的生成AI模型。 但是,缺乏较小的上下文模型并不是企业生成AI采用的唯一挑战。其他存在重大障碍,如下图所示: 为什么更小,“精细调谐”模型是遗传AI的未来 虽然研究证实,在巨大的数据集上训练的生成AI模型加快了训练收敛并提高了准确性,但它们并不适合执行特定的业务功能。当针对特定应用程序或用例构建更小,更精细调整的生成AI模型时,在企业领域采用生成AI的真正转折点将到来。较小的模型资源密集程度较低,训练和推理成本较低,通过基于检索的推理提供更大的透明度和可解释性,并为企业部署提供更大的及时性。“微调”这些“小型”生成AI模型可以提高性能和可信度。从“巨大的,广义的”到“较小的,微调的”生成AI模型将有助于缓解企业目前对数据隐私,性能和可信度的担忧。通过部署“微调”模式,企业获得以下优势:。 •更低的成本:培训和推理成本大大降低,微调迭代的资源要少得多密集。•可解释性和可信性:“微调”模型不依赖于已知知识,而是依赖于“基于检索的”推理模型。这些可以参考来源来备份输出。直接访问原始数据可以限制幻觉和数据近似。•IP所有权:与公共AI模型不同,微调模型仅利用企业可以使用的内部数据他们肯定有权利。•性能优化和上下文化:当生成AI解决方案针对特定的业务成果进行定制时,这减少了所需的参数数量并提高了性能。作为示例,一般的ChatGPT可以涉及多达1700亿个参数,而情境化模型可以仅需要大约10亿个或更少的参数。这些精细调整的模型也可以迎合特定的硬件,从而降低成本并提高利用率。此外,由于这些模型更适合定制,并且使用了精心策划的数据,幻觉的风险要低得多。•更好的规模经济:ML支持的开源模型,可以微调生成AI应用程序和用例的使用,比基于API的服务更便宜,并且针对自有硬件进行了更好的优化。例如,将API扩展到GPT-3无法满足企业规模经济的雄心。另一方面,在自有服务器上部署开源生成AI将转化为成本节约,因为企业不需要为令牌付费。 基于微调模型构建生成式AI应用程序对企业来说是一个重大挑战,内部技能和创建孤岛业务单元的风险是最令人担忧的问题。然而,开源生成式AI和ML服务工具的进步将使微调模型成为企业更现实的机会。 2023年开始,供应商讨论了万亿以上的参数模型,突出了行业趋势,即增加生成AI的规模,从而提高准确性。但问题是,大规模的生成AI模型是昂贵的、资源密集型的和耗时的。生成人工智能的未来将需要一个更有效的商业案例,这只能通过“量身定制、微调”的模型来实现。 开源还是闭源模型?还是两者? 开源生成AI模型正在迅速发展,注定是生成AI的未来;然而,至少在短期内,闭源模型对许多企业来说仍然是实用的。考虑到开源和闭源模式的显著利弊,企业和供应商将避免只承诺一个或另一个。最终,ABIResearch预计将采用网状的“混合”模型,为生成AI带来更大的行业价值。这将使实施者能够以经济的方式利用联合学习,同时确保数据在企业的围墙花园中的安全。 表1:企业开源和闭源模型的评估 (来源:ABIResearch) 供应商如何抓住一代人工智能市场机会? 生成式AI供应链正在迅速发展。市场看到新的基础模型正在发布,每周部署大量应用程序/插件,新的供应商通过专业服务或合作伙伴关系进入这个潜在的利润空间。在以下各节中,我们总结了在等待每个供应商的各种生成AI市场机会中展开的活动,并强调了一些“开箱即用”的货币化策略。 表2:GenAI供应商的市场机会 (来源:ABIResearch) 研究与开发 硬件供应商、云服务提供商、系统集成商和顾问每年在研发(R&D)上花费数十亿美元,使其成为生成AI演进的催化剂。无论是构建/训练新的AI模型还是提高硬件利用率,研发都对生成AI领域产生了巨大影响。生成型AI研发公司习惯于增加参数、性能等。,但ABIResearch认为,考虑到更严格的监管和标准化工作,安全/安保将是未来的主要重点。 硬件提供商 硬件市场由一些拥有巨额预算的供应商主导,这使得它成为新来者进入的最艰难的生成AI层。NVIDIA已成为图形处理单元(GPU)的市场领导者,用于AI培训和推理。NVIDIA还开发了生成AI和ML服务工具,以增强企业对生成AI的采用。英特尔、AMD和高通也是硬件领域的重头戏。高通公司已经证明了其在设备上运行稳定扩散推理(来自StabilityAI的10亿多参数文本到图像生成AI应用程序)的能力。同时,英特尔和服务提供商BCG合作,直接为企业提供服务。 基础模型供应商 基础模型市场是另一个难以渗透的市场,需要高硬件成本,强大的AI培训专业知识和数据访问。建立和培训基础模型是一项非常昂贵的工作,因此,像微软、Meta、谷歌和百度这样的超大规模公司已经让其他公司黯然失色。还有一些初创公司,如OpeAI,从微软、Athropic、Cohere和AI21获得了大量的资金支持。AmazoBedroc将通过Tita获利并支持企业采用基于生成AI的应用程序,这说明了基础模型提供商现在如何开始利用生成AI的商业机会。 到目前为止,闭源模型一直占据着这个领域,但这并不总是持续的。开源模型的演变、版权挑战、数据限制、道德问题和巨大的成本将不可避免地引起摩擦。基金会模型提供商必须证明他们对保护客户数据的承诺。 www.abiresearch.com 数据服务 虽然最初的生成AI模型依赖于公共信息(例如Procedre,GPT-3使用互联网),数据隐私/版权挑战将使这种培训方式更加困难。这将有利于提供数据服务的公司,因为一旦监管/成本障碍减少可用数据的数量,企业将需要合成数据进行培训。此外,实施生成式AI的企业将发现,对内部数据进行策划和标记以微调其模型非常有价值。展示了这一领域的感知价值,几家初创公司最近获得了投资,埃森哲最近在策展和标签提供商Stardog中的股份就是一个很好的例子。 ML服务工具 虽然ML平台在其他AI领域(如计算机视觉)更具支持性,但它们越来越多地用于自然语言处理(NLP)服务。随着时间的推移,这些基于机器学习的工具和服务将成为企业生成AI部署不可或缺的一部分,因为它们可以实现微调和应用程序开发。下面概述了一些简化企业生成AI模型的开发,部署,运营和管理的工具: •优化工具支持生成AI模型/应用程序的整体性能和效率生成AI功能更快、更准确。 •集成服务确保生成式AI应用程序与现有企业流程和工作流。 •云平台作为中央枢纽,开发人员和企业可以在云基础设施中部署、监控和管理生成AI部署。 •AI安全服务考虑到围绕生成AI法律和道德问题的审查是一件大事。在利益相关者确信生成AI解决方案不会影响数据隐私,安全性或IP之前,企业采用不会激增。 •低/无代码平台,它提供图形界面,拖放功能,预构建的应用程序框架,生成AI模型API等,使开发人员能够快速轻松地构建生成AI软件应用和工作流。 应用程序开发人员 在生成AI世界中,出现了三种通用的基于生成AI的应用程序类别:1)基础模型(ChatGPT和Bard)的用户界面(UI);2)基于公共生成AI模型(WriteMage)的应用程序插件;3)由微调生成AI模型构建的全栈应用程序。 前两个类别不需要广泛的AI技能,非常适合B2C领域,但不太适合B2B市场。ABIResearch认为第三种选择,即根据特定业务用例构建的全栈应用程序,是企业的机会。在接下来的6个月中,应用程序开发人员将越来越多地利用开源模型来构建企业想要的经过微调的全栈应用程序。我们预计这些生成式AI部署中有很大一部分是在本地部署的,特别是当数据敏感性受到关注时。 企业服务 企业缺乏将生成式AI成功实施到业务运营和流程所需的技能、内部流程和战略理解。这为第三方服务(如业务顾问、系统集成商、垂直独立软件供应商(ISV)、云供应商、托管服务提供商(MSP)和经销商)提供了有利可图的机会。这个领域主要是由业务顾问和系统集成商之间的合作伙伴关系推动的,许多例子比比皆是。在业务顾问方面,值得注意的合作包括贝恩和OpeAI,BCG和英特尔,PWC和HarveyAI等。对于系统集成商,GoogleClod与TataCosltacyService,Wipro,Cogizat和Capgemii合作,而埃森哲和ScaleAI则合作。 如下图3所示,生成式AI供应链中软件的总收入机会将从2023年的12亿美元增加到2030年的近570亿美元。 推动收入创造,向前发展,要求供应商以“开箱即用”策略来补充当前的“免费增值”,订阅和基于消费的模式,这些策略在相邻市场中已经证明是成功的。其中一些收入机会如下: •开源产品化:ISV、机器学习工具提供商和企业服务提供商应该构建产品使用竞争日益激烈的开源模型。•广告:成功用于支持搜索工具、ISV、超大规模程序和ML工具提供程序的货币化可以将广告整合到他们的产品中。•卓越中心(CoE)支持:StartupsandISVlacktheinfrastructureandcapitaltobuildandscalegenerativeAIapplications.Hyperscalers,hardwarevendors,integrators,andconsultantsshouldlooktobuildacceleratorsusingtheirtools/