AI智能总结
以“芯”助先进算法,以“算”驱万物智能 分析师:孙远峰S0910522120001分析师:王臣复S0910523020006 2024年2月18日 核心观点 u半导体景气度有望迎来复苏:从半导体行业景气度来看,在经历了2022、2023年的去库存周期后,半导体销售额有望在2024年迎来复苏。据WSTS数据显示,全球半导体产品销售总额从1999年的1494亿美元增长到2022年的5741亿美元,期间复合增速约6.03%。WSTS预计2023年全球年销售额同比下滑9.4%,但2024年将有望增长13.1%。 u逻辑芯片国产替代空间巨大:从半导体产品销售额来看,逻辑器件是半导体产品市场规模最大的细分品类,根据SIA的报告显示,2022年全球逻辑器件市场规模达1766亿美元,包括MPU、GPU、SOC等。根据集邦咨询统计的2023年第三季度前十大IC设计业者营收中(仅统计公开财报的),前五大厂商中,仅博通的主业不是逻辑芯片为主。国产厂商无论从料号的布局还是企业整体营收规模来看与国外厂商都有巨大的差距,目前具有较大的替代空间。 uAI技术快速发展催生算力需求快速提升:大模型技术所带来的突破以及商业化前景促使全球进入AI竞赛,其中,美国在AI领域依旧担当着创新者和引领者的身份。大模型的发展依托于强大的算法、庞大的数据量以及巨大的算力支撑,当下大模型逐步从单模态走向多模态,对于以英伟达GPU为代表的算力需求快速爆发,全球范围内算力芯片的供需缺口一定程度上降低了多模态大模型的发展速度,但依旧无法阻止AI技术向前演进以及商业化逐步落地,因此而对国内外算力产业链带来了巨大的发展机遇。国产算力同样面临着巨大的需求,但却要面对高端GPU芯片无法进口的局面,进而为国产厂商崛起带来了发展机遇。 u走向推理,创新硬件不断涌现,边、端算力机遇有望启动:以AI手机、AI PC、AI PIN等为代表的终端创新不断涌现,代表着AI从训练走向推理阶段,我们认为是AI技术走向商业化的必然之路,新技术的出现有望带来硬件应用场景的重新定义,并进而推动边、端侧算力的需求向前演进。 u风险提示:技术创新风险、宏观经济和行业波动风险、国际贸易摩擦风险、复苏或需求不及预期相关风险 逻辑芯片市场规模巨大,产业链具备高门槛 大模型走向多模态,技术持续演进,商业前景广阔 算力板块投资的几条主线 相关标的 风险提示 2024年全球半导体销售有望迎来复苏 u据WSTS数据显示,全球半导体产品销售总额从1999年的1494亿美元增长到2022年的5741亿美元,期间复合增速约6.03%。 uWSTS预计2023年全球年销售额同比下滑9.4%,但2024年将有望增长13.1%。 消费者购买是半导体销售增长核心驱动 u根据美国SIA发布2023年Factbook白皮书,绝大多数半导体需求是由消费者最终购买的产品驱动的,如笔记本电脑和智能手机。新兴市场消费者的需求越来越多地发挥驱动作用,这些新兴市场包括亚洲、拉丁美洲、东欧和非洲等。 全球PC、智能手机等出货量预测 u根据IDC预测,2023年至2027年全球PC出货量的复合年增长率达到3.1%,增长动因来自于老机换新、AI PC推动的产品升级等。智能手机方面,IDC预测,2023年,全球智能手机市场出货量将会低于12亿台,同比下降1.1%;而中国市场的出货量预计将仅有2.83亿台,同比也会下降1.1%。2024年全球智能手机市场出货量12.63亿,同比增长5.9%;中国智能手机市场出货重新回到3亿市场大盘,同比增长6.2%。 逻辑器件是半导体产品市场规模最大的细分品类 u根据SIA的 报告显示,半导体产品细分市场中,逻辑、存储、模拟、MPU四类占 据了大部分份额。其中逻辑器件规模最大。 u按照分类逻辑芯片主要包括CPU、GPU等通用 处 理 器 及FPGA、CPLD等专用性较强的逻辑芯片。 逻辑芯片市场主要是美国大厂主导 u根据SIA发布的2023年Factbook白皮书,2022年美国半导体公司拥有最大的市场份额,占48%。其他国家半导体产业占全球市场份额的7%到20%不等。 u根据BCG analysis的分析,2019年逻辑芯片市场美国半导体厂商占据了67%的市场份额,东亚(中国大陆除外)占了15%的市场份额,欧洲占了8%的市场份额,中国大陆占比仅个位数。 u根据集邦咨询统计的2023年第三季度前十大IC设计业者营收中(仅统计公开财报的),前五大厂商中,仅博通的主业不是逻辑芯片为主。 逻辑芯片有多种品类,市场相对分散 u逻辑芯片具有多种品类,根据Gartner的定义,包括了MPU、GPU、FPGA、应用/基带SoC、无线、有线、应用/媒体处理器、MCU和其他逻辑等,市场相对分散。 CPU,算力的基础控制单元 u中央处理器(central processing unit,简称CPU)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元,电脑和智能设备的控制中枢。uCPU内部主要由运算器、控制器和寄存器组成,运算器执行数值计算,寄存器储存数据。 指令集,软件与硬件的接口 u指令就是指示计算机硬件执行某种运算、处理功能的命令。指令集又称指令系统架构,是CPU运行的软件的二进制编码格式,是一种指令编码的标准规范,存储于CPU内部,用来引导CPU进行加减运算和控制计算机操作系统的一系列指令集合。 u指令集可以分为复杂指令集(CISC)和精简指令集(RISC),CISC的代表是X86;RISC的代表是ARM。CPU指令集的兼容性是生态规模的重要因素,构建高吸附性生态是竞争难点。RSIC-V是一种新兴的开源精简指令集架构,因其具有开源、免费、开放、自由等特点而呈加速发展之势。 软硬配合,生态构建高门槛 u操作系统是连接硬件和数据库、中间件、应用软件的纽带,是承载各种信息设备和软件应用运行基础平台的重要基础性软件。CPU行业目前由两大生态体系主导:一是基于X86指令系统和Windows操作系统的Wintel体系,垄断个人计算机和服务器处理器市场;二是基于ARM指令系统和Android操作系统的AA体系,主导了智能手机和物联网芯片处理器市场。前者生态相对封闭,后者生态相对开放,芯片厂商需要获得ARM的授权。 u根据statcounter数据显示,在全球操作系统市场中,目前主要有Windows、Android、iOS、OSX、Linux五大操作系统竞争。 从“Tick-Tock”模式到“PAO”模式 uTick-Tock模型是Intel公司2006年提出的CPU发展路线,内含了提升CPU性能的两大主要驱动力,即是微结构改进和制程升级。“Tick”是提升CPU的制造工艺,“Tock”是带来更好的微结构设计。u2017年,Intel对Tick-Tock周期进行了修正,从10nm制程CPU开始改为“制程-架构-优化”的“三步走”战略,每次迭代周期拉升到3年。 制程升级是提升CPU性能的重要手段之一 u根据AMD的数据,过去十年(2017往前),制程升级对CPU性能提升的贡献度在40%,其他推动因素依次分别为软件优化、电源管理、增大芯片面积等。 u随着制造技术越来越复杂,发展、研究和开发时间也越来越长。台积电在2022Q4宣布量产3纳米鳍式场效晶体管制程。根据台积电规划,台积电N2技术将采用纳米片晶体管架构,计划于2025年开始生产。 先进制程投入巨大,供应格局愈加集中 u根据集微咨询的数据显示,晶圆代工厂的投资成本会随着工艺节点的先进程度提高而增长,随着先进制程的开发,芯片制程缩小对晶圆代工厂带来的建设成本急速上升,每万片5nm芯片的晶圆厂建设成本已达到28nm芯片晶圆厂建设成本的5-6倍。 u根据集邦咨询报道,英特尔已经向台积电下达3nm工艺订单,用于生产即将推出的LunarLake芯片,这标志着台积电首次成为英特尔主流笔记本CPU的独家生产商。 GPU,从显卡走向通用计算 uGPU又称显示核心、视觉处理器,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。NVIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU的概念。从此NVIDIA显卡的芯片就用这个新名字GPU来称呼。GPU使显卡削减了对CPU的依赖,并执行部分原本CPU的工作,尤其是在3D图形处理时。 u可编程性与浮点计算能力相结合,基于GPU的通用计算也开始出现,GPU朝着通用计算的方向持续演进。2006年,英伟达CUDA(Compute Unified Device Architecture,统一计算设备架构),及对应工业标准的OpenCL的出现,让GPU实现更广泛的通用计算功能,GPGPU的概念落地。 英伟达架构两年升级一次 与CPU对比,GPU拥有更多的计算资源 uCPU和GPU都是计算机处理器,都能执行计算任务,其不同点在于,CPU更擅长线性计算,而GPU更擅长并行计算。CPU是基于低延时的设计;GPU是基于大的吞吐量设计。 英伟达强大的重要推手之一:并行计算 u并行计算(英语:parallel computing)一般是指许多指令得以同时进行的计算模式。在同时进行的前提下,可以将计算的过程分解成小部分,之后以并发方式来加以解决。相对于串行计算,并行计算可以划分成时间并行和空间并行。时间并行即指令流水化,空间并行使用多个处理器执行并发计算。并行计算机体系结构的发展主要体现在计算节点性能的提高及节点间通信技术的改进两方面。 u弗林分类法,根据指令流和数据流的不同组织方式把计算机体系的结构分为四类:单指令流单数据流(SISD)、单指令流多数据流(SIMD)、多指令流多单数据流(MISD)、多指令流多数据流(MIMD)。 SIMT,主流GPU的系统架构核心 uSIMT与SIMD(同一条指令多个数据)的共同点是同一条指令。SIMT(单指令多线程)是SIMD的线程等价物,不同之处在于,SIMD使用执行单元或矢量单元,而SIMT将其扩展为利用线程。SIMT的好处是无需开发者费力把数据凑成合适的矢量长度,并且SIMT允许每个线程有不同的分支。SIMT的主要优点是它减少了指令预取带来的等待时间。 uSIMD是CPU上用的,SIMT是GPU上用的。SIMD更像是CPU的一个小扩展,SIMT是GPU上并发性的核心保证。 Tensor Core,面向AI和高性能计算(HPC) uTensor Core(张量计算核心)是由NVIDIA研发的新型处理核心,Tensor Core可实现混合精度计算,并能根据精度的降低动态调整算力,在保持准确性的同时提高吞吐量。英伟达目前已经发布了4代Tensor cores,分别是2017年5月发布的NVIDIAVolta架构中的第一代Tensor Core、2018年8月发布的NVIDIA Turing Tensor Core技术、2020年5月发布的NVIDIA Ampere架构和2022年9月20日发布的第四代TensorCore——Ada Lovelace架构。 面积与性能平衡的方案 u由于科学问题的求解需要大规模并行计算能力,很多科学家使用GPU来进行科学计算。这种场景中,经常用到高精度的数据类型。英伟达在GPU新增了DPU(FP64),负责64位浮点型的计算。浮点型计算是较为复杂的一个电路,随着计算位数的增加,电路面积呈指数级增长,相应的也会带来成本的大幅度增长。为了提升芯片的覆盖范围,英伟达需要在芯片面积和性能之间不断寻找平衡的方案。 英伟达强大的重要推手之一:CUDA生态 u2006年,NVIDIA推出CUDA,这是一种用于通用GPU计算的革命性架构。CUDA的存在使得开发者使用GPU进行通用计算的难度大幅降低,使得开发者可以相对简单有效地对英伟达GPU芯片进行编程,使科学家和研究人员能够利用GPU的并行处理能力来应对最复杂的计算挑