AI智能总结
生成式AI(Generative AI)在飞速演进,CEO们也在探索其商业价值及潜在风险。为此,我们提供一份生成式AI核心概要,供广大CEO们参考。 本文由Michael Chui、Roger Roberts、Tanya Rodchenko、Alex Singla、Alex Sukharevsky、Lareina Yee和Delphine Zurkiya共同撰写,谨代表Mckinsey Digital旗下科技委员会(McKinseyTechnology Council)和QuantumBlack, AI by McKinsey的观点。 CEO们想知道是否应立即采取行动,以及如果采取行动,该从何开始。有些人可能从中看到了机遇,希望通过重塑人与生成式AI应用程序协同工作的方式,在竞争中弯道超车。其他人则可能希望谨慎行事,在进行大规模投资之前先尝试几个用例,增进对生成式AI的理解。企业也需要评估自身是否具备必要的技术专识、技术及数据架构、运营模式以及风险管理流程,这些是更进一步部署生成式AI时所需要的。 自ChatGPT、Bard、Claude、Midjourney以及其他内容生成工具问世以来,人们对生成式AI抱有很高期待。各企业CEO自然也在思考:这究竟是科技炒作,还是颠覆行业格局的机遇?如果是后者,那生成式AI能给自身业务带来什么价值? ChatGPT的大众版仅两个月就吸引到1亿用户。它以史无前例的方式推动了AI的普及,已成为迄今增长最快的应用程序。无与伦比的易用性让生成式AI有别于以往所有AI技术。用户不需要专修机器学习就可以开展交互、获取价值——只要会提问,几乎人人都能用。就像个人电脑或iPhone等其他突破性技术一样,一款生成式AI平台可以衍生出许多应用程序,适用于各个年龄段和教育水平的用户群体,人们无论身处何地,能够上网即可使用。 本文旨在帮助CEO及其团队思考生成式AI的价值创造场景以及如何开始应用。首先,我们总结了生成式AI的入门指南,以帮助CEO更好了解AI日新月异的发展现状和可行技术选择。第二部分将通过4个旨在提高组织效能的案例,探讨企业如何应用生成式AI。这些案例来自我们对早期采用者的观察,并介绍了在技术、成本和运营模式要求等方面的各种选择。最后,我们将探讨CEO如何发挥关键作用,利用生成式AI带领企业走向成功。 而实现这一切,依靠的是驱动生成式AI聊天机器人的基础大模型,它们是经由大量非结构化、无标签数据(如文本、音频等各类形式)训练的庞大神经网络。基础大模型可处理各种各样的任务。相比之下,以往的AI模型通常适用范围更“窄”,往往只能执行一项任务,如预测客户流失率等。而一个基础大模型则既能为一份2万字的量子计算技术报告生成内容摘要,又能为园艺公司起草市场进入策略,还能根据冰箱里的10种食材给出5张不同的食谱。不过,在其丰富功能的背后,目前还存在结果不够准确的短板,这也让人们再度关注起AI的风险管理问题。 人们对生成式AI的期待显而易见,企业高管自然希望借此东风运筹帷幄,有计划地快速推进。我们希望本文能让商业领袖更全面了解生成式AI未来潜力。 在监管得当的情况下,生成式AI不仅可以为企业开辟新用例,还可以加速、扩展或改进现有用例。以电销场景为例,经过专门训练的AI模型可以帮助销售人员发现追加销售机会,但截至目前,这些模型通常还只能根据通话前收集的人口统计信息和购买规律等静态客户数据来判断追加销售的可能性。生成式AI工具则可根据实际对话内容,利用内部客户数据、外部市场趋势和社交媒体影响者数据,实时为销售人员提供追加销售建议。同时,生成式AI还可以为销售人员撰写销售话稿,供其根据具体情况进行调整。 上述例子只展示了AI技术对人类工作潜在影响的一个侧面,而实际上,几乎所有知识工作者都有可能因使用生成式AI而获益。尽管生成式AI最终可能会让部分工作自动化,但其价值将更多来自于被嵌入日常工具(如电子邮件或文字处理软件)后知识工作者对它的使用。这类升级后的工具可以大幅提高生产力。 不仅是聊天机器人 生成式AI入门指南 生成式AI可用于工作自动化、辅助强化与加速推进。从本文宗旨出发,我们将着重阐述生成式AI如何辅助并强化人类工作,对其替代人类工作的潜力不作探讨。 生成式AI技术飞速发展(见图1)。发布周期之短、初创公司数量之众、与现有软件的整合之快,皆不同凡响。在本节,我们将探讨生成式AI应用的广度,并简要介绍该技术,包括阐明其与传统AI的区别。 在ChatGPT推出后的几个月里,主要大型语言模型(LLM)的发展时间线在ChatGPT推出后的几个月里,主要大型语言模型(LLM)的发展时间线 ChatGPT等文本生成式聊天机器人备受关注,不过,生成式AI同样可以在图像、视频、声音以及计算机代码等更广泛的内容领域提供助力。在企业,生成式AI也可以发挥广泛功能,比如分类、编辑、总结、回答问题和起草内容。针对上述每项活动,各个业务职能和工作流程的具体工作方式转变都有可能创造价值,部分示例如下: 随着技术的发展和成熟,这类生成式AI可以更好地融入企业工作流程,实现任务自动化并直接执行特定操作(例如,在会议结束时自动发送纪要)。该领域已经有一些工具面市。 生成式AI与其他AI的不同之处 顾名思义,生成式AI和过往AI技术或分析工具的主要区别在于,该技术能够生成新内容,所生成的新内容通常以“非结构化”形式(如书面文本或图像)呈现,而非以表格形式排列(见侧边栏《术语表》中的生成式AI相关术语)。 分类 —反欺诈分析师可以将交易描述和客户文件输入到生成式AI工具中,要求其识别欺诈交易。 其底层技术是一类被称为基础大模型的人工神经网络,其灵感来自于人类大脑中数十亿相互连接的神经元。人工神经网络需要通过深度学习加以训练,“深度”即指神经网络中的层数之众、之深。深度学习技术推动了AI领域的众多新进展。 —客户服务经理可以使用生成式AI工具根据客户满意度对客户通话音频文件进行分类。 编辑 而某些特质使得基础大模型区别于过往的深度学习模型。首先,训练基础大模型可以使用体量庞大、类型多样的非结构化数据。例如,一类被称为大型语言模型的基础大模型可以通过互联网上公开可用且涵盖各类主题的大量文本进行训练。其他深度学习模型虽然也可以处理大量非结构化数据,但训练所用的数据集通常更具体。例如,为了让模型识别照片中的某些物体,需要使用一组特定图像对其进行训练。 —撰稿人可以利用生成式AI纠正语法,并使文字风格与顾客的品牌调性相匹配。 —平面设计师可以利用生成式AI从图像中移除过时标志。 总结 —制片助理可以用数小时的活动录像创作精彩视频集锦。 事实上,其他深度学习模型往往只能执行一项此类任务。例如,它们要么对照片中的物体分类,要么执行预测等其他功能。相比之下,基础大模型可以同时实现上述功能,并且还能够生成内容。上述能力的积累是通过从所摄取的广泛训练数据中学习规律和关系实现的,比如,通过规律和关系学习,基础大模型能够预测句子中的下一个单词。这就是为什么ChatGPT能够回答不同主题的问题、而DALL-E 2和Stable Diffusion能够根据描述生成图像。 —业务分析师可以创建维恩图(Venn diagram)总结高管发言要点。 回答问题 —制造企业员工可以向基于生成式AI的“虚拟专家”咨询有关操作流程的技术问题。 —消费者可以向聊天机器人询问新家具的组装方式。 起草内容 —软件开发者可以让生成式AI完成整段代码,或者提供建议以补全现有代码的未完成语句。 —营销经理可以使用生成式AI起草不同版本的营销活动信息。 术语表 应用程序接口(API)是一种通过编程访问(通常是外部的)模型、数据集或其他软件的方式。 AI是指软件有能力执行过去需要人类智能才能完成的任务。 深度学习(deep learning)是机器学习的分支,使用由相互连接的多层“神经元”组成的深度神经网络,这些连接具有可训练的参数或权重。它在学习图像、文本和音频等非结构化数据方面尤为有效。 微调(fine-tuning)是指调试预训练模型以使其更好地处理特定任务的过程。这需要在相对较短的时间内,通过标记的数据集进行训练,这个数据集比最初训练模型的数据集小得多。这一额外训练使模型能够学习并适应较小数据集中的细微差异、术语和特定规律。 基础大模型(foundation model, FM)是基于大量非结构化、无标签数据训练的深度学习模型,可以直接用于广泛的任务,也可以通过微调适应特定任务。GPT-4、PaLM、DALL·E2和Stable Diffusion便属于这类模型。 生成式AI(Generative AI)通常指使用基础大模型构建的AI,具有以往AI所没有的能力,比如生成内容的能力。基础大模型也可用于非生成性目的(例如,根据通话记录将用户的情绪分类为负面或正面),这类用例的结果相较早期模型有明显改进。为方便起见,本文在提到生成式AI时,包括所有基础大模型用例。 图形处理器(graphics processing units, GPU)是计算机芯片,最初为制作计算机图形(如视频游戏)而开发,同样可支持深度学习应用。相比之下,传统的机器学习和其他分析工具通常在被称为计算机“处理器”的中央处理器(CPU)上运行。 大型语言模型(large language model, LLM)是一类基础大模型,可处理大量非结构化文本,学习单词或词组(称为token)之间的关系。这使得大型语言模型能够生成自然语言文本,执行总结或提取知识点等任务。GPT-4(ChatGPT的基础大模型)和LaMDA(Bard的基础大模型)均是大型语言模型。 机器学习(machine learning, ML)是AI的一个分支,在该领域中,模型接受训练、学习大量样例数据点之后获得能力。机器学习算法通过处理数据和经验(而非接收明确的编程指令)来发现规律并学习如何做出预测和推荐。算法也会自我调试,能对新的数据和经验做出更有效的反应。 MLOps指的是扩展和维持AI和机器学习的工程模式和实践,包括一整套覆盖整个机器学习生命周期的实践(数据管理、开发、部署和实时运营)。目前,这些实践很多都由辅助软件(任务标准化、简化或自动化工具)支持或优化。 提示工程(prompt engineering)是指设计、改进和优化输入提示以引导生成式AI模型产生所需(即准确)输出的过程。 非结构化数据(unstructured data)指缺乏统一格式或结构的数据(例如文本、图像和音频文件),通常需要使用更先进的技术以生成见解。 鉴于基础大模型的多功能性,企业可以使用同一模型实现多个业务用例,这是早期深度学习模型难以实现的。一款纳入了公司产品信息的基础大模型可能同时用于回答客户问题和协助工程师开发新版产品。因此,企业可以搭建应用并更快实现收益。 生成式AI生态系统正在兴起 基础大模型是生成式AI的“大脑”,而正在兴起的整个价值链将支持该技术的训练和使用(见图2)1。专用硬件提供了训练模型所需的庞大算力。云平台则提升了对这类硬件的利用。MLOps和模型中心供应商提供企业所需工具、技术和实践,让企业能够调试使用基础大模型并将其部署到终端用户应用之中。许多公司正在进入市场,主打依托基础大模型、能够执行特定任务的应用程序,例如帮助某公司处理客户服务问题。 然而,基础大模型当前的运行方式决定了它们并不适用于所有类型的应用。例如,大型语言模型容易产生“幻觉”,用看似可信、实则错误的论断回答问题(见侧边栏《负责任地使用生成式AI》)。此外,基础大模型并不总能给出作答的基本推理或依据来源。这意味着在错误可能造成损害、或需要对回答进行解释的情况下,企业对应用无人监督的生成式AI需慎之又慎。生成式AI目前也不适用于直接分析大量的表格数据或解决高级数值优化问题。研究人员正在努力克服这些限制。 生成式AI价值链生成式AI价值链 负责任地使用生成式AI 生成式AI伴生