AI与电子共舞 ——电子行业2023年中期投资策略 民生电子团队 01 证券研究报告*请务必阅读最后一页免责声明 证券研究报告 2023年6月28日 *请务必阅读最后一页免责声明 核心观点 以ChatGPT为代表的生成式AI,正引领科技产业的全新变革。电子产业作为基础硬件,在AI浪潮中不可或缺。我们在此将电子AI标的分为三大赛道:算力、边缘域、Chiplet,并分别讨论其投资思路。 一、算力:大模型百花齐放之际,算力紧缺或将成为常态。AI服务器相较传统服务器价值量大幅提升,从服务器整机到光模块、PCB,参与全球竞争的龙头公司,都有望具有较强的业绩弹性。我们于2月22日发布的报告《ChatGPT开启行业变革,Chiplet引领破局之路》中,量化测算了AI服务器的中远期需求。 同时,国产化驱动下,本土算力芯片也在加速跟进全球龙头的步伐。从训练到推理,均有长足突破。我们于3月19日发布的专题报告《国产AI算力芯片全景图》,对国内上市及未上市的算力芯片公司,做了系统梳理。 二、边缘域:如果说算力是供给侧,那么边缘域则代表需求侧。我们认为边缘域是未来的投资重点,全球龙头纷纷下注,谷歌推出轻量化大语言模型PaLM2,高通 也在加强布局AI和智能网联边缘领域。 就投资方向来看: 硬件侧,我们看好音频产业率先发力。音频作为轻交互的方式,更适用于碎片化场景。无论是智能音箱(智能家居)还是耳机(可穿戴设备),都已有诸多AI应用涌现出来。 而视频则会随后发力,成为全球龙头决胜赛道。AIGC内容快速增长下,海量及高清化视频作为物联网的绝对入口,对传输速率上限和带宽提出更高的要求。同时, Meta发布SAM模型,也会加速机器视觉发展。高清视频也对数字芯片提出更高的性能要求,有助产业链价量齐升。 三、Chiplet:Chiplet是算力时代的主流方案。海外龙头公司已经率先发力,国内算力芯片也将迎头赶上。Nvdia的H100采用台积电CoWoS2.5D封装,并配备最高80GBHBM3。AMD则推出了更大规模的Chiplet产品,MI300AI加速卡拥有13个小芯片。 目前来看:1)封测厂商方面,为了满足Chiplet的全新需求,主要发力中段的晶圆级封装(Bumping)和后段的OS环节。2)设备厂商方面,Chiplet对晶圆级封装设备及后道封测设备,都提出了更高的性能要求。3)材料方面,IC载板、ABF膜/可剥铜箔也是国产化替代的重点方向。 我们看好AI产业加速发展,算力、边缘域、Chiplet三大赛道至关重要。算力为供给侧,是AI产业发展的基石;边缘域为需求侧,为AI应用提供硬件落地;Chiplet则是算力时代的主流方案,也是未来技术发展的核心方向。建议关注相关产业链的投资机遇:1)算力:芯原股份、沪电股份、联想集团、工业富联;2)边缘AI:安克创新、国光电器、乐鑫科技、晶晨股份;3)Chiplet:长电科技、甬矽电子、兴森科技、长川科技。 风险提示:产业研发进展不及预期的风险;下游需求不及预期的风险;竞争格局变化的风险。 01 02 03 04 05 06 07 回望GPT发展历程,AI的“iPhone”时刻到来 CONTENTS AI芯片:算力核芯 录 服务器产业链:算力基座目 边缘域:催生边缘芯片需求 Chiplet:助力AI芯实现算力跨越重点公司盈利预测 风险提示 01. 回望GPT发展历程,AI的“iPhone”时刻到来 证券研究报告 4*请务必阅读最后一页免责声明 证券研究报告 资料来源:中国信通院《人工智能生成内容白皮书》,民生证券研究院 5 *请务必阅读最后一页免责声明 1.1 ChatGPT:AI的“iPhone“时刻到来 近年来生成式AI步入快速发展期。1950年开始生成式AI出现早期萌芽,此后AIGC处于漫长的沉淀积累期,决策式AI占据主流。随着 2014年生成式对抗网络等深度学习算法的提出,AIGC步入快速发展期,生成内容的丰富度和精度都有了较大的提升。 图:AI模型发展历程 ChatGPT为AI的“iPhone“时刻。3月21日,英伟达CEO黄仁勋在GTC2023大会上将ChatGPT比作AI的“iPhone“时刻,AI时代加速来临,推动生成式AI加速发展。从GPT-1到GPT-3.5,GPT模型的智能化程度不断提升,ChatGPT在拥有3000亿单词的语料基础上预训练出拥有1750亿个参数的模型(GPT-2仅有15亿参数),预训练数据量从5GB增加到45TB。 1.2 全球AI大模型进展迅速 图:全球AI大模型进展 3月16日 3月29日 4月8日 4月10日 4月11日 4月13日 4月14日 4月17日 4月18日 发布基于Web3的GPT大模型 百度文心一言 三六零大模型 360AI 华为大模型 盘古模型 商汤大模型阿里大模型同花顺AI产品 昆仑万维 「天工」3.5大语言模型 阿里行业应用 模型 谷歌I/O大会,推出 AI+Gmail&DOC 微软开发者大会发布新Windows等 5月6日5月10日5月23日 科大讯飞AI学习机 星火认知大模型 5月31日 金山办公发布WPS 证券研究报告资料来源:金十数据,快科技,新浪科技,澎湃,IT之家等,民生证券研究院整理 6 *请务必阅读最后一页免责声明 365、WPSAI 6月9日 讯飞星火认知大模型V1.5发布 6月13日 360智脑大模型应 用发布会 6月19日 腾讯发布MaaS 能力全景图 证券研究报告 资料来源:OpenAI,民生证券研究院 7 *请务必阅读最后一页免责声明 1.3 API端口开放+插件引入,海量应用迈入AI新时代 Plugin开启AI的“APPStore“时代,生态版图进一步扩展。2023年3月2日,OpenAl推出了自然语言对话模型GPT-3.5-Turbo和语音转文本模型Whispermodels的开发者API,使得多种应用程序可通过API的方式接入ChatGPT。3月24日,ChatGPTplugins的发布,进一步扩大了ChatGPT的应用能力并催化至多场景的业务处理能力,AI的“APPStore“时代到来。 插件商城接入10余家应用,具备检索实时信息、检索知识库信息和代替用户操作应用功能。 图:Whispermodels的开发者API&Plugin 图:ChatGPTplugins可接入的应用 证券研究报告 资料来源:民生证券研究院整理 8 *请务必阅读最后一页免责声明 华正新材 方邦股份 兴森科技 材料 新益昌 长川科技 华峰测控 设备 华天科技 通富微电 伟测科技 甬矽电子 长电科技 封装测试 芯原股份 Chiplet IP 富瀚微 炬芯科技 恒玄科技 乐鑫科技 全志科技 中科蓝讯 瑞芯微 晶晨股份 数字芯片 佳禾智能 萤石网络 创维数字 惠威科技 漫步者 奋达科技 安克创新 传音控股 国光电器 小米集团 智能终端 芯原股份 边缘域 IP 1.4 AI+电子全景图 江波龙 裕太微 其他芯片 杰华特 晶丰明源 电源芯片 胜宏科技 沪电股份 PCB 海光信息 寒武纪 景嘉微 算力芯片 工业富联 联想集团 服务器 芯原股份 算力 IP 02. AI芯片:算力核芯 证券研究报告 9*请务必阅读最后一页免责声明 证券研究报资告料来源:华为云,芯东西,安宝磊《AI芯片的落地场景和关键技术分析》,民生证券研究院整理10 *请务必阅读最后一页免责声明 2.1 AI芯片:GPGPU+ASIC+FPGA AI芯片一般泛指所有用来加速AI应用,尤其是用在基于神经网络的深度学习中的硬件。 根据技术架构,可分为GPU、FPGA、ASIC。 GPGPU——优势:1)生态完善;2)可进行通用计算,应用范围广;3)目前算力最强。缺点:1)无法针对特定场景优化;2)成本高。 表:不同AI芯片架构对比 ASIC——优势:1)相同价格下算力强大;2)单算力功耗小;3)可以针对特定场景进行优化。缺点:1)没有完整生态,开发、使用成本高;2)通用性差,只能支持特定运算,如矩阵运算等。 图形处理器(GPU) 通用图形处理器(GPGPU) 现场可编程门阵列(FPGA) 专用集成电路(ASIC) 图例定制化程度 通用型 通用型 半定制化 全定制化 优点 编程灵活性高,相比CPU,有更高的并行计算能力;有成熟的软件生态 相较传统GPU计算能力更高;通用性强;具有软件栈的易用性及丰富的软件生态 半定制,可对芯片硬件层进行编程和配置;相对于GPU,功耗更低 定制化带来的低成本、低功耗、高性能特点 缺点 相对于FPGA和ASIC,价格和功耗较高 能效比有待提升 硬件编程语言难以掌握;功耗和成本有压缩空间 芯片通用性差;可编程架构设计难度高、研发周期长、研发成本高 证券研究报告 资料来源:IDC,民生证券研究院 11 资料来源:各平台官网,民生证券研究院 *请务必阅读最后一页免责声明 据IDC数据,2022年中国AI加速卡出货量约为109万张,其中英伟达在中国AI加速卡市场份额为85%,华为市占率为10%,百度市占率为2%,寒武纪和燧原科技均为1%。 云平台 GPU产品型号 亚马逊AWS 英伟达A100、V100、K80、A10G、T4G、TeslaM60,RadeonProV520 GoogleComputeEngine 英伟达L4、P100、P4、T4、V100、A100,TPUv4Pod、TPUv3Pod、TPUv2Pod 腾讯云 英伟达A10、A100、TeslaV100、TeslaP40、TeslaT4、TeslaP4 百度云 英伟达A100、V100、A10 阿里云 英伟达A100、V100、A10、 P100、P4、T4 英伟达GPU产品凭借其性能优势在全球主要云平台中得到了广泛运用,如亚马逊AWS、GoogleComputeEngine、阿里云等厂商云平台的主要AI芯片均采购自英伟达。 图:2022中国AI加速卡出货量占比 表:全球主要云平台AI芯片配置情况 2% 10% 1% 1%2% 85% 英伟达华为百度寒武纪燧原科技其他 2021年全球人工智能芯片市场规模为255亿美元,据Frost&Sullivan预计,2026年市场规模将增长至920亿美元,CAGR达29.3%。 据IDC数据,2022年中国仍以GPU为主实现数据中心计算加速,GPU在人工智能芯片市场中出货量占比达86%。NPU占比达12%,较以往具有明显增长。NPU芯片设计逻辑更为简单,在处理推理工作负载时具有显著的能耗节约优势。 图:2020-2026全球人工智能芯片市场规模及预测(亿美元) 图:2022中国人工智能芯片出货量占比 1000 900 800 700 600 500 400 300 200 100 0 920 CAGR+29.3% 776 630 490 361 255 175 202020212022E2023E2024E2025E2026E 1.7%0.3% 证券研究报告 资料来源:Frost&Sullivan、观研天下,民生证券研究院 12 资料来源:IDC,民生证券研究院 *请务必阅读最后一页免责声明 12.3% 85.6% GPUNPUASICFPGA GPU在硬件方面的核心能力包括: 算力:单位是FLOPS或者TOPS,表示GPU在单位时间内的峰值运算次数,是GPU的核心性 能指标。算力 显存:显存的大小在几个GB到几十GB之间,用于存储运算中间过程的临时数据,在GPU 算力足够的情况下,显存越大,读取次数越小,延时越低。 显存 功耗:GPU的功耗和算力、制程、硬件架构等因素有关,相同算力情况下,功耗越大,意功耗 味着数据中心的运营成本越高,同时对服务器的电源、制冷都会有更高的要求。 片间互联:大型AI训练需要使用多个GPU服务器,在服务