您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[上海证券]:通信行业事件点评:英伟达发布DGX GH200超级计算机,提升通信带宽利好高速光模块 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业事件点评:英伟达发布DGX GH200超级计算机,提升通信带宽利好高速光模块

信息技术2023-06-02上海证券李***
通信行业事件点评:英伟达发布DGX GH200超级计算机,提升通信带宽利好高速光模块

证券研究报告 事件点评 英伟达发布DGX GH200超级计算机,提升通信带宽利好高速光模块 [Table_Rating] 增持(维持) [Table_Summary] ◼ 主要观点 今年年初以来,以ChatGPT为代表的生成式人工智能模型持续落地和商业化,引发了业内对人工智能赛道的关注。人工智能技术的不断演进,也对以算力和通信为代表的人工智能基础设施提出了更高的要求。 近日,NVIDIA推出了新型AI超级计算机——DGX GH200。在算力和存储方面,DGX GH200组合了Arm架构的Grace CPU和Hopper架构的GPU,配备了96GB HBM高速显存、576GB显存和144TB共享内存。在通信方面,DGX GH200在GPU间可实现高达900GB/s的数据吞吐速率(带宽),是PCIe Gen 5.0通道传输速率的7倍。相较于此前推出的DGX H100 SuperPOD,DGX GH200更适合生成式人工智能模型训练场景。 我们认为:除算力之外,为了适应生成式人工智能模型的持续迭代, AI数据中心需要更高的带宽和更大的内存。而GH200配置的高内存和大带宽,正是这一发展趋势的代表,这将有利于800G光模块在未来的导入与放量,利好在800G验证和量产方面进度领先的光模块行业头部公司。 ◼ 投资建议 建议关注: 中际旭创:中高端数通市场龙头,2021年全球排名第一的光模块供应商。公司管理团队激励机制有望得到改善。根据iFinD机构一致预期,截至2023年5月29日,公司2023/2024年的预测PE分别为51/39倍,位于近五年的81%分位。 新易盛:光模块领域龙头,成本管控优秀,具备切入增量云计算/AI客户的能力。根据iFinD机构一致预期,截至2023年5月29日,公司2023/2024年的预测PE分别为39/28 倍,位于近五年的46%分位。 天孚通信:光器件整体解决方案提供商。根据iFinD机构一致预期,截至2023年5月29日,公司2023/2024年的预测PE分别为59/46 倍,位于近五年的100%分位。 源杰科技:技术成熟的国产激光器厂商。根据iFinD机构一致预期,截至2023年5月29日,公司2023/2024年的预测PE分别为104/76 倍,位于近五年的90%分位。 ◼ 风险提示 海外头部云厂商需求不及预期;人工智能技术落地和商业化不及预期;产业政策转变;宏观经济不及预期等。 [Table_Industry] 行业: 通信 日期: shzqdatemark [Table_Author] 分析师: 刘京昭 Tel: E-mail: SAC编号: S0870523040005 [Table_QuotePic] 最近一年行业指数与沪深300比较 [Table_ReportInfo] 相关报告: 《市场行情疲软,通信行业细分板块出现分化行情》 ——2023年05月23日 《财报披露和节日后两天行情疲软,不改长期投资逻辑》 ——2023年05月11日 《稳健成长,紧抓数字经济新周期 ——通信行业2022及2023Q1财报总结》 ——2023年05月09日 -14%-7%1%8%16%23%31%38%45%06/2208/2210/2201/2303/2306/23通信沪深3002023年06月02日 事件点评 请务必阅读尾页重要声明 2 目 录 1 人工智能基础设施更进一步,英伟达新型超级计算机发布 ........ 3 1.1 DGX GH200在共享内存和GPU间通信方面有提升 ....... 3 1.2 GPU间通信带宽增加,提振高速光模块增长空间 ........... 5 2 风险提示 ..................................................................................... 6 图 图 1:DGX GH200组合了Grace CPU和Hopper架构GPU ....................................................................................... 3 图 2:Grace Hopper架构相对x86+Hopper在模型训练和高性能计算上有比较明显的计算能力优势 ...................... 4 图 3:DGX GH200内存大幅增加(单位:GB) .................. 4 图 4:DGX GH200连接NVLink的拓扑结构 ........................ 4 图 5:DGX GH200大内存AI工作负载性能大幅优于DGX H100 ............................................................................... 4 图 6:GPU-GPU通过NVLink4连接 .................................... 5 表 表1:人工智能领域相关公司对比(截至5月29日,单位:亿元) ............................................................................ 6 事件点评 请务必阅读尾页重要声明 3 1 人工智能基础设施更进一步,英伟达新型超级计算机发布 1.1 DGX GH200在共享内存和GPU间通信方面有提升 今年年初以来,以ChatGPT为代表的生成式人工智能模型持续落地和商业化,引发了业内对人工智能赛道的关注。人工智能技术的不断演进,也对以算力和通信为代表的人工智能基础设施提出了更高的要求。 图 1:DGX GH200组合了Grace CPU和Hopper架构GPU 资料来源:NVIDIA DGX GH200技术文档,上海证券研究所 5月29日,NVIDIA宣布推出AI超级计算机DGX GH200。相比于2021年推出的DGX H100 SuperPOD架构,DGX GH200超级计算机主要的改进有: (1)使用了全新的Grace Hopper 超级芯片。Grace Hopper 超级芯片整合了Arm架构的Grace CPU和Hopper架构的GPU,而DGX H100则使用单独的H100 GPU。Grace Hopper 超级芯片相比于传统的X86+Hopper方式,在并行计算上优势明显,因此DGX GH200在模型训练场景下会有更高的计算效率; (2)DGX GH200拥有144TB共享内存,单块GPU最高配置96GB高速显存,相较DGX H100增加20%,因此DGX GH200在进行模型训练时,可以高效地使用更大的训练数据集; 事件点评 请务必阅读尾页重要声明 4 图 2:Grace Hopper架构相对x86+Hopper在模型训练和高性能计算上有比较明显的计算能力优势 图 3:DGX GH200内存大幅增加(单位:GB) 资料来源:NVIDIA Grace Hopper架构白皮书,上海证券研究所 资料来源:NVIDIA开发者社区,上海证券研究所 (3)DGX GH200的GPU与GPU间通信使用NVLink4,可以在GPU与GPU间实现900GB/s的数据吞吐速率(带宽),是传统PCIe Gen 5.0通道传输速率的7倍,同样有助于提高模型训练效率。 综上所述,相比于此前的DGX H100 SuperPOD,DGX GH200将更适合受到较大关注的生成式人工智能模型训练。 图 4:DGX GH200连接NVLink的拓扑结构 图 5:DGX GH200大内存AI工作负载性能大幅优于DGX H100 资料来源:NVIDIA开发者社区,上海证券研究所 资料来源:NVIDIA开发者社区,上海证券研究所 DGX GH200在Grace CPU与GPU间使用NVLink C2C技术进行通信,在GPU间通过NVLink交换机进行通信。所使用的NVLink交换机结合了第四代NVLink与第三代NVSwitch技术。如图4所示,DGX GH200第一级配置96台NVLink交换机,第二级配置36台NVLink交换机,每8个 Grace Hopper 超级芯片为一组与3台第一级的NVLink交换机互相连接。结合800G光模块的封装方式和NVSwitch的端口数量,假设Grace Hopper 超级芯片与第一级的NVLink交换机通过线缆连接,而第一级的NVLink 事件点评 请务必阅读尾页重要声明 5 交换机与第二级的NVLink交换机通过光通信连接,则DGX GH200中一块GPU对应9个800G光模块;假设Grace Hopper 超级芯片与第一级的NVLink交换机、第一级的NVLink交换机与第二级的NVLink交换机均通过光通信连接,DGX GH200中一块GPU对应约18个800G光模块。因此,DGX GH200中一块GPU对应的800G光模块约为9-18个。 图 6:GPU-GPU通过NVLink4连接 资料来源:NVIDIA Grace Hopper架构白皮书,上海证券研究所 考虑到NVIDIA推出的CUDA架构在高性能计算领域的重要地位,DGX GH200超级计算机的设计思路和具体实现,也将对后续面向模型训练场景的AI服务器的设计产生较大的影响。 1.2 GPU间通信带宽增加,提振高速光模块增长空间 光通信是AI数据中心协同运转的重要通信手段,光模块则是光通信必不可少的组件。AI数据中心的网络通信建设,将进一步拓展以400G和800G光模块为代表的中高速光模块的应用前景,对目前处于400G光模块放量、800G光模块加速导入的周期起点的光模块行业具有重要意义。 我们认为:除算力之外,为了适应生成式人工智能模型的持续迭代,突破生成式人工智能模型训练时间较长的瓶颈, AI数据中心需要更高的带宽和更大的内存。而DGX GH200正是这一发展趋势的代表,这将有利于800G光模块在未来的导入与放量,利好在800G验证和量产方面进度领先的光模块行业头部公司。 事件点评 请务必阅读尾页重要声明 6 2 风险提示 海外头部云厂商需求不及预期;人工智能技术落地和商业化不及预期;产业政策转变;宏观经济不及预期等。 表1:人工智能领域相关公司对比(截至5月29日,单位:亿元) 细分板块 股票简称 22营业 收入 22归母 净利润 23E 营业收入 23E归母 净利润 23E 估值 24E 营业收入 24E归母 净利润 24E 估值 近五年PE 分位数(%) 算力 寒武纪 7 -13 11 -8 -- 16 -5 -- -- 紫光国微 71 26 92 34 23 119 45 17 0 澜起科技 37 13 50 15 54 73 21 36 30 北京君正 54 8 59 9 49 70 12 36 27 芯原股份 27 1 34 2 295 43 2 189 -- 国科微 36 2 53 4 51 69 6 37 43 瑞芯微 20 3 25 4 77 32 6 57 97 服务器 中科曙光 130 15 152