您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[上海证券]:通信事件点评:英伟达发布H200,面向生成式AI推理场景持续升级 - 发现报告

通信事件点评:英伟达发布H200,面向生成式AI推理场景持续升级

信息技术2023-11-15刘京昭上海证券心***
AI智能总结
查看更多
通信事件点评:英伟达发布H200,面向生成式AI推理场景持续升级

事件描述 近日,NVIDIA宣布推出NVIDIA HGX H200。NVIDIA HGX H200基于NVIDIA Hopper架构,配备NVIDIA H200 Tensor Core GPU和HBM3e显存,能够更好地支持处理生成式AI和高性能计算场景下的工作负载。NVIDIA H200所配备的141GB HBM3e显存拥有4.8 TB/s的带宽,与NVIDIA H100相比,显存增加76%,带宽增加43%。以Llama2-70B模型为例,NVIDIA H200的推理速度是NVIDIA H100的1.9倍,大幅提高了对生成式AI推理场景的支持能力。 分析和判断 我们认为: (1)HVIDIA HGX H200的推出,从侧面印证了生成式AI推理场景对算力的巨大需求。 (2)H200在推理场景下性能的提升,有望降低下游科技企业在生成式AI应用落地时的算力使用成本,加速生成式AI应用的技术落地。(3)在生成式AI研发中处于领先地位的科技企业,有望在产品落地后,更好地将技术转化壁垒和现金流,从而持续投入人工智能基础设施建设,有利于与这些科技企业存在较强上下游绑定关系的算力供应链企业实现持续增长。 ◼投资建议 《三大运营商云业务稳中有进,新兴业务产品日臻完善》——2023年08月15日 建议关注: 中际旭创:中高端数通市场龙头,2022年与II-VI并列光模块业务营收全球第一,公司800G光模块已在2023年上半年逐步起量。根据iFinD机构一致预期,截至2023年11月14日,公司2023/2024年的预测PE分别为45/23倍,位于近五年的67%分位。 《英伟达发布L40S GPU,中高速光模块或将受益》——2023年08月11日 《海外云厂商收支稳健,支持AI基础设施建设长期向好》——2023年08月02日 天孚通信:光器件整体解决⽅案提供商。根据iFinD机构一致预期,截至2023年11月14日,公司2023/2024年的预测PE分别为54/35倍,位于近五年的85%分位。 ◼风险提示 下游需求不及预期;人工智能技术落地和商业化不及预期;产业政策转变;宏观经济不及预期等。 目录 1英伟达推出H200,大幅提升生成式AI模型推理速度...............32风险提示.....................................................................................5 图 图1:NVIDIA H200较H100推理能力更强..........................4图2:NVIDIA H200首次配备HBM3e..................................4图3:英伟达有望持续发布面向模型训练和推理的计算卡.....4 表 表1:H200 SXM与H100 SXM技术指标相仿 ......................3表2:光通信领域公司对比(截至11月13日,单位:亿元).................................................................................5 1英伟达推出H200,大幅提升生成式AI模型推理速度 近日,NVIDIA宣布推出NVIDIA HGX H200。NVIDIA HGXH200基于NVIDIA Hopper架构,配备NVIDIA H200 Tensor CoreGPU和HBM3e显存,能够更好地支持处理生成式AI和高性能计算场景下的工作负载。 从整体上看,NVIDIAH200 SXM与NVIDIAH100 SXM的技术指标相仿,主要的区别在于NVIDIAH200 SXM的HBM3e显存大小明显增加、带宽明显增大:NVIDIA H200所配备的141GBHBM3e显存拥有4.8 TB/s的带宽,与NVIDIAH100相比,显存增加76%,带宽增加43%。以Llama2-70B模型为例,NVIDIAH200的推理速度是NVIDIA H100的1.9倍,大幅提高了对生成式AI推理场景的支持能力。 NVIDIAA100/A800、AMD MI200以及多数CSPs自研的加速芯片主要基于HBM2e设计。随着生成式AI的需求持续上升,新一代HBM的开发和技术落地逐渐加速。NVIDIA H100/H800以及AMD MI300系列开始配备SK海力士、三星开发的HBM3。美光则跳过HBM3,直接开发HBM3e。单颗HBM3e容量将提升至24GB,传输速率也将由HBM3的5.6~6.4Gbps提升至8Gbps。我们认为:HBM3e拥有更大的容量、更高的传输速率,因此也更适 合生成式AI的应用场景。 资料来源:NextPlatform,上海证券研究所 资料来源:NVIDIA,上海证券研究所 根据英伟达公布的文件,未来有望继续基于x86架构推出面向人工智能模型推理场景的计算卡B100。同时,英伟达也将继续开发基于800G、1.6T光模块的新一代InfiniBand和以太网交换机,在人工智能基础设施领域持续发力。 资料来源:ServeTheHome,上海证券研究所 我们认为:(1)HVIDIAHGXH200的推出,从侧面印证了生成式AI推理场景对算力的巨大需求。(2)H200在推理场景下性能的提升,有望降低下游科技企业在生成式AI应用落地时的算力使用成本,加速生成式AI应用的技术落地。(3)在生成式AI研发中处于领先地位的科技企业,有望在产品落地后,更好地将技术转化壁垒和现金流,从而持续投入人工智能基础设施建设,有利于与这些科技企业存在较强上下游绑定关系的算力供应链企业实现持续增长。 2风险提示 下游需求不及预期:下游客户分布在多个行业,需求的影响因素多。若下游客户的需求量不及预期,将影响行业的收入和利润。 人工智能技术落地和商业化不及预期:从长期看,以人工智能技术为支撑的公司需要以事实证明其现阶段的成长潜力,若不能及时将技术转化为长期壁垒和现金流回报,可能影响后续市场对人工智能主题的关注和信心。 产业政策转变:生成式人工智能模型的训练需要算力、通信和数据支持,前期投入巨大,需要相关产业政策予以倾斜,若产业政策方向发生转变,可能影响关键领域的技术突破。 宏观经济不及预期:宏观经济影响居民消费,若经济增速放缓,可能导致居民消费信心下降,消费需求受到抑制,消费端相关业务承压。 分析师声明 作者具有中国证券业协会授予的证券投资咨询资格或相当的专业胜任能力,以勤勉尽责的职业态度,独立、客观地出具本报告,并保证报告采用的信息均来自合规渠道,力求清晰、准确地反映作者的研究观点,结论不受任何第三方的授意或影响。此外,作者薪酬的任何部分不与本报告中的具体推荐意见或观点直接或间接相关。 公司业务资格说明 本公司具备证券投资咨询业务资格。 投资评级说明: 不同证券研究机构采用不同的评级术语及评级标准,投资者应区分不同机构在相同评级名称下的定义差异。本评级体系采用的是相对评级体系。投资者买卖证券的决定取决于个人的实际情况。投资者应阅读整篇报告,以获取比较完整的观点与信息,投资者不应以分析师的投资评级取代个人的分析与判断。 免责声明 本报告仅供上海证券有限责任公司(以下简称“本公司”)的客户使用。本公司不会因接收人收到本报告而视其为客户。 本报告版权归本公司所有,本公司对本报告保留一切权利。未经书面授权,任何机构和个人均不得对本报告进行任何形式的发布、复制、引用或转载。如经过本公司同意引用、刊发的,须注明出处为上海证券有限责任公司研究所,且不得对本报告进行有悖原意的引用、删节和修改。 在法律许可的情况下,本公司或其关联机构可能会持有报告中涉及的公司所发行的证券或期权并进行交易,也可能为这些公司提供或争取提供多种金融服务。 本报告的信息来源于已公开的资料,本公司对该等信息的准确性、完整性或可靠性不作任何保证。本报告所载的资料、意见和推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值或投资收入可升可跌。过往表现不应作为日后的表现依据。在不同时期,本公司可发出与本报告所载资料、意见或推测不一致的报告。本公司不保证本报告所含信息保持在最新状态。同时,本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。 本报告中的内容和意见仅供参考,并不构成客户私人咨询建议。在任何情况下,本公司、本公司员工或关联机构不承诺投资者一定获利,不与投资者分享投资收益,也不对任何人因使用本报告中的任何内容所引致的任何损失负责,投资者据此做出的任何投资决策与本公司、本公司员工或关联机构无关。 市场有风险,投资需谨慎。投资者不应将本报告作为投资决策的唯一参考因素,也不应当认为本报告可以取代自己的判断。