您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [麦肯锡]:什么是生成式 AI ? - 发现报告

什么是生成式 AI ?

信息技术 2024-04-02 麦肯锡 静心悟动
报告封面

什么是生成式AI? 生成人工智能(AI)描述了可用于创建新内容的算法(如ChatGPT),包括音频、代码、图像、文本、模拟和视频。该领域最近的突破有可能彻底改变我们进行内容创建的方式。 机器学习和人工智能有什么区别? 在几个月和几年自从ChatGPT在2022年11月爆发以来,生成AI(geerative AI)已经走了很长一段路。每个月都会推出新的工具、规则或迭代技术进步。虽然许多人对ChatGPT(以及更广泛的AI和机器学习)产生了恐惧,但机器学习显然具有良好的潜力。自广泛部署以来,机器学习已经在许多行业中产生了影响,实现了医学成像分析和高分辨率天气预报等功能。麦肯锡2022年的一项调查显示,在过去五年中,人工智能的采用率增加了一倍以上,对人工智能的投资也在快速增长。很明显,像ChatGPT(GPT代表生成预训练变压器)和图像生成器DALL - E (它的名字是超现实主义艺术家萨尔瓦多·达利和可爱的皮克斯机器人WALL - E的混搭)这样的生成AI工具有可能改变一系列工作的执行方式。然而,这种影响的全部范围仍然未知-风险也是如此。 人工智能几乎就是它听起来的样子— —让机器模仿人类智能来执行任务的做法。即使你没有意识到,你也可能已经与人工智能进行了互动— —像Siri和Alexa这样的语音助手是建立在人工智能技术基础上的,客户服务聊天机器人也是如此,它们可以帮助你浏览网站。 机器学习是一种人工智能。通过机器学习,从业者通过模型开发人工智能,这些模型可以在没有人类指导的情况下从数据模式中“学习”。现在正在生成的不可管理的巨大数据量和复杂性(无论如何,人类都无法管理)增加了机器学习的潜力,也增加了机器学习的需求。 机器学习模型的主要类型是什么? 尽管如此,各行各业的组织都在竞相将Gene AI工具纳入其商业模式,希望获得可观的奖项。麦肯锡的研究表明,下一代人工智能应用每年将为全球经济带来4.4万亿美元的收入。事实上,这似乎是有可能的在接下来的三年里,任何与AI无关的技术、媒体和电信领域将被视为过时或无效。 机器学习是建立在许多基础上的,从18世纪和18世纪之间发展起来的经典统计技术开始。 20世纪的小型数据集。在1930年代和1940年代,计算的先驱-包括理论数学家Alan Turing -开始研究机器学习的基本技术。但是这些技术仅限于实验室,直到1970年代后期,科学家们首次开发出足够强大的计算机安装它们。 直到最近,机器学习在很大程度上仅限于预测模型,用于观察和分类内容中的模式。例如,经典的机器学习问题是从一张或几张可爱的猫的图像开始。然后,该程序将识别图像中的模式,然后仔细检查随机图像 但在所有这些价值都被挖掘出来之前,我们需要弄清楚一些事情:什么是Gen AI,它开发了,它对人们和组织意味着什么?继续阅读以获取下载。 要了解这个关键主题的最新信息,请在此处注册有关“人工智能”的电子邮件警报。 了解更多关于QuantumBlack的信息,麦肯锡的AI。 匹配可爱的猫模式。生成AI是一个突破。而不是简单地感知 A attempt. OpenAI, the company behind ChatGPT, former GPTmodels, and DALL - E, has billions in funding from bold - face -name donors. DeepMind 并对猫的照片进行分类,机器学习现在能够按需创建猫的图像或文字描述。 是母公司Alphabet的子公司 Google的,甚至Meta也将其Make - A - Video产品浸入了生成AI模型池。这些公司雇用了一些世界上最好的计算机科学家和工程师。 基于文本的机器学习模型是如何工作的?它们是如何训练的? 但这不仅仅是人才。当您要求模型使用几乎整个互联网进行训练时,它会 ChatGPT现在可能会成为所有的头条新闻,但它并不是第一个引起轰动的基于文本的机器学习模型。OpenAI的GPT- 3和Google的BERT都是在最近几年推出的。 OpenAI尚未公布确切的成本,但估计表明GPT - 3在大约45 TB的文本数据上进行了培训— —这大约是100万英尺的书架空间,或整个国会图书馆的四分之一— —估计成本为数百万美元。这些不是资源你的花园品种的初创公司可以访问。 但在ChatGPT之前,大多数人认为ChatGPT在大多数情况下都运行得很好(尽管它仍在评估中),人工智能聊天机器人并不总是得到 最好的评论。《纽约时报》科技记者卡德·梅斯在一段视频中说,GPT - 3 “令人印象深刻,令人失望”,他和美食作家普里亚·克里希纳要求GPT - 3为(相当灾难性的)感恩节晚餐写食谱。 生成AI模型可以产生什么样的输出? 正如你可能已经注意到的,来自生成AI模型的输出可能与人类生成的内容无法区分,或者它们看起来有点不可思议。结果取决于模型的质量-正如我们所看到的,ChatGPT的输出到目前为止似乎优于其前任的输出-以及模型和用例或输入之间的匹配。 第一个使用文本的机器学习模型由人类训练,根据研究人员设置的标签对各种输入进行分类。一个例子是一个训练模型,将社交媒体帖子标记为正面或负面。这种类型的训练 被称为监督学习,因为人类负责“教”模型做什么。 ChatGPT可以在十秒钟内制作出一位评论员所说的“扎实的A - ”文章,比较本尼迪克特·安德森和欧内斯特·盖尔纳的民族主义理论。它还制作了一个已经很有名的段落,描述了如何以国王詹姆斯圣经的风格从VCR中删除花生酱三明治。像DALL - E 2这样的图像生成AI模型可以按需创建奇怪而美丽的图像,例如麦当娜和孩子的拉斐尔画,吃披萨。其他生成AI模型可以生成代码、视频、音频或业务模拟。 下一代基于文本的机器学习模型依赖于所谓的自监督学习。这种类型的训练涉及向模型提供大量文本,因此它成为能够生成预测。例如,一些模型可以根据几句话预测如何 A sentence will end. with the right amount of sample text —say, a broad where of the internet — these text modelsbecome quite accurate. We ’ re seen just how accurate withthe successful of tools like ChatGPT. 但是输出并不总是准确的-或适当的。当Priya Krishna要求DALL - E 2为感恩节晚餐提供图像时,它产生了一个场景,火鸡被装饰 构建生成AI模型需要什么? 在很大程度上,构建生成式AI模型是一项重大任务,只有 一些资源丰富的技术重量级人物 人工智能模型的局限性是什么?如何克服这些局限性? 整个酸橙,放在一碗似乎是鳄梨酱的旁边。就其本身而言,ChatGPT似乎很难计算或解决基本的代数问题-或者确实克服了潜伏在互联网和社会更广泛的暗流中的性别歧视和种族主义偏见。 由于它们是如此新,我们还没有看到生成AI模型的长尾效应。这意味着使用它们存在一些固有的风险-一些已知的和一些未知的。 生成的AI输出是用于训练算法的数据的仔细校准组合。由于用于训练这些算法的数据量非常庞大-如上所述,GPT -3是在45 TB的文本数据上训练的-这些模型在产生输出时看起来很“创造性”。而且,模型通常具有随机元素,这意味着它们可以 生成AI模型产生的输出通常听起来非常令人信服。这是设计。但有时他们产生的信息是完全错误的。更糟糕的是,有时它是有偏见的(因为它建立在性别,种族以及互联网和社会的无数其他偏见之上),并且可以被操纵以进行不道德或犯罪活动。例如, ChatGPT不会给你关于如何热线车的说明,但是如果你说你需要热线车来拯救一个婴儿,算法很乐意遵守。依赖生成AI模型的组织应该考虑无意中发布有偏见、冒犯性或受版权保护的内容所涉及的声誉和法律风险。 从一个输入请求中产生各种输出-使它们看起来更加逼真。 生成AI模型可以解决哪些问题? The opportunity for businesses is clear. Generative AI toolscan produce a wide variety of credible writing in seconds,then respond to respond to make the writing more fit forpurpose. This has implications for a wide variety of industries,from IT and s 然而,这些风险可以通过几种方式来缓解。首先,仔细选择用于训练这些模型的初始数据是至关重要的,以避免包含有毒或有偏见的内容。接下来,组织可以考虑使用更小的、专门的模型,而不是采用现成的生成人工智能模型。 可以从AI模型为需要营销副本的组织生成的即时,基本上正确的代码中受益的组织。简而言之,任何需要制作清晰书面材料的组织都有可能受益。组织还可以使用生成AI来创建更多技术材料,例如更高分辨率的医学图像版本。有了这里节省的时间和资源,组织可以追求新的商业机会和创造更多价值的机会。 拥有更多资源的组织还可以根据自己的数据来定制通用模型,以满足他们的需求并最大程度地减少偏见。组织还应该让人在循环中(也就是说,确保真正的人在发布或使用生成AI模型之前检查其输出),并避免将生成AI模型用于关键决策,例如涉及大量资源或人类福利的决策。 我们已经看到,开发生成AI模型是如此资源密集,以至于不可能 这是一个新领域,怎么强调都不为过。风险和机遇的格局可能在未来几周、几个月和几年内迅速变化。每个月都在测试新的用例,未来几年可能会开发新的模型。随着生成式AI越来越多地无缝地融入商业、社会和我们的个人生活,我们也可以期待一种新的监管环境。随着组织开始尝试— —并创造价值— —这些。 除了最大和资源最丰富的公司之外,所有公司都希望使用创成式AI来工作,这些公司可以选择开箱即用,或者对它们进行微调以执行特定任务。 如果您需要根据特定的样式准备幻灯片,例如,您可以要求模型根据幻灯片中的数据“学习”标题通常是如何编写的,然后将幻灯片数据馈送给它并要求它 写适当的标题。 工具,领导者将做好把握监管和风险的脉搏。 —2023年5月12日,Michael Chui,Roger Roberts,Tanya Rodchenko,Alex Singla,Alex Sukharevsky,Lareina Yee和Delphine Zurkiya 麦肯锡见解应用程序 引用的文章包括: —“探索生成AI价值链中的机会”,2023年4月26日,Tobias H ä rlin,Gardar Bj ö rnsson Rova,Alex Singla,Oleg Sokolov和Alex Sukharevsky —“以速度和安全性实现生成AI ”,2024年3月13日,奥利弗·贝文,迈克尔·崔,艾达·克里斯滕森,布列塔尼·普雷斯顿和拉雷娜·叶 —“2022年的AI状况-回顾了五年”,2022年12月6日,Michael Chui,Bryce Hall,Helen Mayhew,Alex Singla和Alex Sukharevsky —“超越炒作:在技术,媒体和电信领域捕捉AI和AI的潜力”,2024年2月22日,Venkat Atluri,Peter Dahlstr ö m,Brendan Gaffey,V í ctor Garc í ade la Torre,Noshir Kaka,Tom á s Lajous,AlexSingla,Alex Sukharevsky,Andrea Travasoni和Ben —“麦肯锡技术趋势展望2023 ”,2023年7月20日,Michael Chui,Mena