您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[中泰证券]:从ChatGPT看芯片产业机遇:ChatGPT引发算力革命,AI芯片产业链有望率先受益 - 发现报告
当前位置:首页/行业研究/报告详情/

从ChatGPT看芯片产业机遇:ChatGPT引发算力革命,AI芯片产业链有望率先受益

电子设备2023-03-19王芳、杨旭、李雪峰、游凡中泰证券市***
从ChatGPT看芯片产业机遇:ChatGPT引发算力革命,AI芯片产业链有望率先受益

中泰电子王芳团队分析师:王芳执业证书编号:S0740521120002分析师:李雪峰执业证书编号:S0740522080004证券研究报告2023年03月19日1ChatGPT引发算力革命,AI芯片产业链有望率先受益——从ChatGPT看芯片产业机遇分析师:杨旭执业证书编号:S0740521120001分析师:游凡执业证书编号:S0740522120002 目录一、ChatGPT激起AI浪潮,多场景创新产业链空间广阔1.1 AI创新浪潮兴起,多模态赋能下游行业1.2 算力芯片迎来产业机遇二、芯片是ChatGPT底层土壤三、芯片需求增长拉动产业链机会四、投资建议及风险提示2 ChatGPT快速渗透,AI产业迎发展新机3来源:OpenAI官网,World of Engineering,中泰证券研究所◼ChatGPT是由OpenAI公司开发的人工智能聊天机器人程序,于2022年11月发布,推出不久便在全球范围内爆火。根据WorldofEngineering数据显示,ChatGPT达到1亿用户量用时仅2个月,成为史上用户增长速度最快的消费级应用程序。与之相比,TikTok达到1亿用户用了9个月,Instagram则花了2年半的时间。从用户体验来看,ChatGPT不仅能实现流畅的文字聊天,还可以胜任翻译、作诗、写新闻、做报表、编代码等相对复杂的语言工作。◼ChatGPT爆火的背后是人工智能算法的迭代升级。ChatGPT是基于GPT-3.5微调得到的新版本模型,能够借助人类反馈的强化学习(RLHF)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。从2008年第一代生成式预训练模型GPT-1诞生以来,GPT系列模型几乎按照每年一代的速度进行迭代升级,未来随着大语言模型(LLM)技术的不断突破,AI相关应用有望加速落地,AI产业或将迎来新一轮发展机遇。图表:应用程序达到1亿用户量所需时间(月数)图表:GPT模型迭代过程 ChatGPT激起AI浪潮,大算力芯片迎来产业机遇4来源:甲子光年,中泰证券研究所◼ChatGPT是生成式人工智能技术(AIGC)的一种,与传统的决策/分析式AI相比,生成式AI并非通过简单分析已有数据来进行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。AIGC的应用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。◼AIGC产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。硬件层依靠高性能AI芯片、服务器和数据中心为AIGC模型的训练提供算力支持,是承载行业发展的基础设施;数据/算法层软件层主要负责AI数据的采集、清洗、标注及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;行业应用层目前主要涉及搜索、对话、推荐等场景,未来有望在多个行业呈现井喷式革新。图表:AIGC产业链全景图 5来源:腾讯《AIGC发展报告2023》,中泰证券研究所◼多模态大模型有望成为AI主流,赋能下游行业智能升级。生成式AI主要依赖于人工智能大模型,如Transformer、BERT、GPT系列等。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使AI算力的需求也呈现出指数级的增长。多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习,将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。我们认为多模态大模型长期来看不仅可以从成本端降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。图表:国外部分AIGC预训练模型一览厂商预训练模型应用参数量领域谷歌BERT语言理解与生成4810亿NLPPaLM语言理解与生成、推理、代码生成5400亿NLPImagen语言理解与图像生成110亿多模态Parti语言理解与图像生成200亿多模态微软Florence视觉识别6.4亿CVTuring-NLG语言理解、生成170亿NLPDeep MindGato多面手的智能体12亿多模态Gopher语言理解与生成2800亿NLPAlphaCode代码生成414亿NLPOpen AlGPT3语言理解与生成、推理等1750亿NLPCLIP&DALL-E图像生成、跨模态检索120亿多模态Codex代码生成120亿NLPChatGPT语言理解与生成、推理等13-1750亿NLP多模态赋能下游行业智慧化升级 6来源:OpenAI官网,中泰证券研究所◼从GPT-1到ChatGPT,模型参数与训练数据量不断增加,所需算力资源不断提升:➢GPT-1:最早的GPT模型之一,包含了1.17亿个参数,预训练数据量约为5GB。➢GPT-2:参数数量达到了1.5亿个,预训练数据量达40GB。➢GPT-3:是目前为止最大的语言模型之一,包含了1750亿个参数,预训练数据量为45TB。➢ChatGPT:基于GPT-3模型的变种之一,参数量预计与GPT-3相近。模型发布时间参数量预训练数据量预估成本消耗资源GPT-12018年6月1.17亿约5GB——在8个GPU上训练一个月GPT-22019年2月15亿40GB——在256个Google Cloud TPU v3上训练一周GPT-32020年5月1750亿45TB训练一次460万美元,总成本1200万美元在355个GPU上训练一年ChatGPT2022年11月未公布未公布训练一次成本超过1200万美元根据参数量而定图表:四代GPT模型参数与预训练数据量对比模型更新升级带动下游行业不断发展 GPT-4性能提升显著,AIGC应用市场空间广阔7来源:SEQUOIA,OpenAI,前瞻产业研究院,中泰证券研究所◼多模态模型是实现人工智能应用的关键。3月14日OpenAI发布GPT-4多模态大模型,拥有1)强大的识图能力;2)文字输入限制提升至2.5万字;3)回答准确性显著提高;4)能够生成歌词、创意文本、实现风格变化。在各种专业和学术基准上,GPT-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下GPT-3.5在倒数10%左右。多模态大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快速增长。◼AIGC下游市场渗透率低,增长空间广阔。根据Gartner数据,目前由人工智能生成的数据占所有数据的1%以下,预计2023年将有20%的内容被生成式AI所创建,2025年人工智能生成数据占比将达到10%。根据前瞻产业研究院数据,2025年中国生成式商业AI应用规模将达2070亿元,CAGR(2020-2025)为84.06%。图表:AIGC下游应用落地时间预测98343663107716062070250%93%62%49%29%0%50%100%150%200%250%300%0500100015002000250020202021E2022E2023E2024E2025E应用规模(亿元)规模增速图表:中国生成式商业AI应用规模 目录一、ChatGPT激起AI浪潮,多场景创新产业链空间广阔1.1 AI创新浪潮兴起,多模态赋能下游行业1.2 算力芯片迎来产业机遇二、芯片是ChatGPT底层土壤三、芯片需求增长拉动产业链机会四、投资建议及风险提示8 AI芯片是人工智能的底层基石9来源:《AI芯片:前沿技术与创新未来》,中泰证券研究所◼AI人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路AI芯片。AI的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆(YannLeCun)等人一起开发了可以通过训练来识别手写邮政编码的神经网络,但在那个时期,训练一个深度学习卷积神经网络(ConvolutionalNeuralNetwork,CNN)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时AI科技泡沫的破灭。◼AI芯片是AI发展的底层基石。英伟达早在1999年就发明出GPU,但直到2009年才由斯坦福大学发表论文介绍了如何利用现代GPU远超过多核CPU的计算能力(超过70倍),把AI训练时间从几周缩短到了几小时。算力、模型、数据一直是AI发展的三大要素,而AI芯片所代表的算力则是人工智能的底层基石。图表:AI人工智能与半导体计算芯片发展历程19401960198020002020突破模型“学习”的心理研究视觉皮层海马位置细胞的时间编码第一个晶体管感知器第一块芯片第一块CPU (MCU)Hopfield网络第一块FPGA神经网络芯片第一块GPU新的DNN算法基于深度学习的AI芯片类脑芯片 ChatGPT激起AI浪潮,大算力芯片迎来产业机遇10来源:智通财经,Counterpoint,IDC,中泰证券研究所◼算力硬件层是构成AIGC产业的核心底座,主要包括AI芯片、AI服务器和数据中心。➢AI芯片是算力硬件层的基石。AI芯片主要分为CPU、GPU、FPGA和ASIC四类,CPU是AI计算的基础,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。目前AI芯片主要被国际厂商垄断,根据Counterpoint、IDC数据,Intel和AMD共计占2022年全球数据中心CPU市场收入的92.45%,Nvidia占2021年中国加速卡市场份额的80%以上。➢AI服务器是AI芯片的系统集成。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。据IDC数据,在2021H1全球AI服务器市场竞争格局中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。➢数据中心的计算服务是承接AI算力需求的直接形式。AIGC的模型训练是通常是通过云计算服务完成的,其本质是AIGC模型厂商借助IDC的算力资源,在云端实现模型的训练。目前国内的数据中心厂商主要包括三大运营商、华为、联想、中科曙光等,提供云计算的厂商主要有阿里、腾讯等互联网企业。71%20%3%2%5%IntelAMDAWSAmpere ComputingOthers图表:2022年全球数据中心CPU市场份额图表:2021H1全球AI服务器市场份额 ChatGPT激起AI浪潮,大算力芯片迎来产业机遇11来源:《Language Models are Few-Shot Learners》,中泰证券研究所◼ChatGPT单次训练所需算力约27.5PFlop/s-day,单颗NVIDIAV100需计算220天。➢根据OpenAI数据,GPT-3XL参数规模为13.2亿,训练所需算力为27.5PFlop/s-day。由于ChatGPT是在13亿参数的InstructGPT基础上微调而来,参数量与GPT-3XL接近,因此预计ChatGPT训练所需算力约为27.5PFlop/s-day。➢以NVIDIAV100芯片为例,一颗NVLink版本V100芯片的深度学习算力为125TFlops,则ChatGPT模型的训练至少需要1颗V100芯片计算220天才能完成。◼随着模型参数的不断增加,模型训练所需算力将进一步提升,将进一步拉动对算力芯片的需求。根据OpenAI数据,随着GPT-3系列模型参数规模由1.25亿增加至1746亿,训练所需算力从2.6PFlop/s-day上升至3640PFlop/s-day,规模参数(1396.8倍)与算力需求(1400倍)呈同比例增长。模型总计算量(PFlop/s-day)总计算量(Flops)参数量(百万个)T5T5-Small2.08E+001.80E+2060T5-Base7.64E+006.60E+20220T5-Large2.67E+012.31E+21770T5-3B1.04E+029.00E+213,000T5-11