您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:边缘+中心,科技巨头如何拥抱AI浪潮? - 发现报告

边缘+中心,科技巨头如何拥抱AI浪潮?

信息技术2023-06-04宋嘉吉、黄瀚、邵帅国盛证券陈***
边缘+中心,科技巨头如何拥抱AI浪潮?

AI算力巨头剑指数据通信。在Computex 2023上,英伟达CEO黄仁勋发布一系列新芯片、新架构超算、交换机及AI在垂直行业的应用进展。 通过深入研究,我们得出新架构GH200中,每块Grace Hopper芯片需要9只800G速率光模块,光模块用量弹性达到9倍;同时,发布会指出,一套GH200中需要用150英里(241芯公里)的光纤,光通信需求弹性空间可观。 比数字更重要的是什么?GH200使用和H100完全相同的计算核心,但是通过加强了通信、存储等部分,在同样的GPU的芯片上实现了2-6倍的性能。集群通信能力成为木桶效应最需要关注的一块“板”,是决定算力高低的最重要因素,我们认为,在相同代际的GPU芯片场景下,网络通信能力和算力芯片本身同等重要。 移动通信霸主发力边缘计算。高通近日宣布正在由通信公司过渡到边缘计算公司(edgecompany),随着AI催化下算力需求加速走向多样化,单一的云端算力无法满足所有需求,算力正在走向泛化,走向“云边端”梯度分布的格局。为什么说边缘计算有望成就高通的“算力梦”?过去,通信模组是高通向全球智能终端输出通信能力的主要载体,未来,物联网模组将承载高通的边缘算力,为全世界开发者带来易用,高性价比的终端计算能力,赋能万物AI互联,真正成就AIOT时代。硬件龙头已经在构建“混合AI”的蓝图,建议积极关注边缘计算概念下的投资机会。 Trend Force预计2023年AI服务器需求火爆,有望实现年增38.4%。 2022-2026年AI服务器出货量年复合增长率预计可达22%,而AI芯片2023年出货量预计将增长46%。英伟达GPU已成为AI服务器所搭载芯片的主流,市占率约60-70%。 算力—— 光通信:中际旭创、新易盛、天孚通信、太辰光、德科立、联特科技、华工科技、源杰科技、剑桥科技。边缘算力芯片:瑞芯微、全志科技、晶晨股份、翱捷科技、乐鑫科技。边缘算力承载平台:美格智能、广和通、移远通信、初灵信息、龙宇股份、网宿科技。算力上游:工业富联、寒武纪、震有科技。服务器&交换机:中兴通讯、紫光股份、锐捷网络。云算力:光环新网、奥飞数据、数据港、润泽科技、科华数据。 数据要素—— 运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。BOSS系统:亚信科技、天源迪科、东方国信。 风险提示:AI发展不及预期,算力需求不及预期。 重点标的 股票代码 1.投资策略:左手中心+右手边缘,科技巨头如何拥抱AI浪潮? 本周核心推荐: 算力—— 光通信:中际旭创、新易盛、天孚通信、太辰光、德科立、联特科技、华工科技、源杰科技、剑桥科技。 边缘算力芯片:瑞芯微、全志科技、晶晨股份、翱捷科技、乐鑫科技。 边缘算力承载平台:美格智能、广和通、移远通信、初灵信息、龙宇股份、网宿科技。 算力上下游:工业富联、寒武纪、震有科技。 服务器&交换机:中兴通讯、紫光股份、锐捷网络。 云算力:光环新网、奥飞数据、数据港、润泽科技、科华数据。 数据要素—— 运营商:中国电信、中国移动、中国联通。 数据可视化:浩瀚深度、恒为科技、中新赛克。 BOSS系统:亚信科技、天源迪科、东方国信。 本周观点变化: 本周,市场对算力的观点又有进一步变化。市场此前认为AI偏主题投资,随着英伟达等一众海外巨头发布财报,并对未来AI的架构和投资有更清晰的展望,更多投资者看到了AI需求驱动下,业绩加速释放的可能性。如同当年特斯拉发布电动车之初,也是从主题逐步演进为全球化的产业趋势,而今在经过ChatGPT的热闹之后,AI的大潮正在袭来。 从算力本身而言,聚焦英伟达平台的架构变动及供应链已成为市场共识,但我们要指出的是——不要忽略边缘侧的变化。近期高通多次强调转型边缘计算,作为全球蜂窝通信领域的龙头,高通的表态表明了其战略转型的迫切性。而从数量上看,边缘侧如同毛细血管,随着AI应用的增多,将大大提升算力的多样性;从功能上看,此前市场理解的物联网或者高通芯片模组多以通信功能为主,而计算能力局限于车载等场景,随着边缘计算爆发,其应用场景将大幅拓展;从成本侧看,高性价比的算力是AI发展的基石,边缘侧不可或缺。因此,对于边缘算力,我们建议深挖高通产业链的投资机会。 2.行情回顾:通信板块表现上涨,云计算表现最佳 本周(2023年5月29日-2023年6月2日)大盘收于3230点。各行情指标从好到坏依次为:创业板综>中小板综>万得全A(除金融,石油石化)>万得全A>上证综指>沪深300。通信板块上涨,表现优于大盘。 图表1:通信板块上涨,细分板块中云计算表现相对最优 从细分行业指数看,云计算、光通信、区块链、移动互联、运营商、物联网上涨8.4%、7.4%、7.4%、6.2%、6.0%、5.2%,表现优于通信行业平均水平,量子通信、通信设备、卫星通信导航上涨3.5%、2.9%、1.4%,表现劣于通信行业平均水平。 本周受益“AI+”概念,恒信东方上涨35.10%,领涨板块。受益云游戏概念,顺网科技上涨28.72%,受益边缘计算概念,初灵信息上涨22.32%,受益光通信概念,特发信息上涨20.91%,受益边缘计算概念,中科创达上涨20.67%。 图表2:本周恒信东方领涨通信行业 3.周专题:左手中心+右手边缘,科技巨头如何拥抱AI浪潮? AI算力巨头剑指数据通信。在Computex2023上,英伟达CEO黄仁勋发布一系列一系列新芯片、新架构超算、交换机及AI在垂直行业的应用进展。新架构GH200下,通过计算,我们得出每块GraceHopper芯片需要9只800G速率光模块,光模块用量弹性达到9倍,一套GH200中需要用150英里(241芯公里)光纤,弹性空间可观。 图表3:英伟达满配256块GraceHopper芯片的GH200网络拓扑 比数字更重要的是什么?GH200使用和H100完全相同的计算核心,但是通过加强了通信、存储等部分,在同样的GPU的芯片上实现了2-6倍的性能,这个是比数字更重要的。集群通信能力成为木桶效应最需要关注的一块“板”,是决定算力高低的最重要因素,我们认为,在相同代际的GPU芯片场景下,通信能力重要性和芯片本身等同。 图表4:使用Grace Hopper比使用传统CPU获得了高达4倍的性能和更高的效率 移动通信霸主发力边缘计算。高通近日宣布正在由通信公司过渡到边缘计算公司(edgecompany),随着AI催化下算力需求加速走向多样化,单一的云端算力无法满足所有需求,算力正在走向泛化,走向“云边端”梯度分布的格局。 为什么说边缘计算有望成就高通的“算力梦”?过去,物联网模组是高通向全球智能终端输出通信能力的主要载体,未来,物联网模组将承载高通的边缘算力,为全世界开发者带来易用,高性价比的终端计算能力,赋能万物AI互联。 图表5:AI处理正在向边缘发展 图表6:大量生成式AI模型可以在设备上运行,从而减轻云端负担 4.NVIDIA推出DGX GH200 AI超级计算机 C114讯,在5月29日的COMPUTEX上,NVIDIA宣布推出一款新型大内存AI超级计算机——由NVIDIA GH200 Grace Hopper超级芯片和NVIDIA NVLink Switch System驱动的NVIDIA DGX超级计算机,旨在助力开发面向生成式AI语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。 NVIDIA DGX GH200的超大共享内存空间通过NVLink互连技术以及NVLink Switch System使256个GH200超级芯片相连,使它们能够作为单个GPU运行。其提供1 exaflop的性能和144 TB的共享内存——相较2020年推出的上一代NVIDIA DGX A100内存大了近500倍。 NVIDIA创始人兼首席执行官黄仁勋表示:“生成式AI、大型语言模型和推荐系统是现代经济的数字引擎。DGX GH200 AI超级计算机集成了NVIDIA最先进的加速计算和网络技术来拓展AI的前沿。” NVIDIA NVLink技术大规模扩展AI GH200超级芯片使用NVIDIA NVLink-C2C芯片互连,将基于Arm的NVIDIA Grace CPU与NVIDIA H100 Tensor Core GPU整合在一起,从而不再需要传统的CPU至GPU PCIe连接。与最新的PCIe技术相比,这将GPU和CPU之间的带宽提高了7倍,将互连功耗减少了5倍以上,并为DGX GH200超级计算机提供了一个600GB的Hopper架构GPU构建模块。 DGX GH200是第一款将Grace Hopper超级芯片与NVIDIA NVLink Switch System配对使用的超级计算机,这种新的互连方式使DGX GH200系统中的所有GPU作为一个整体协同运行。上一代系统在不影响性能的前提下只能通过NVLink把8个GPU整合成一个GPU。 DGX GH200架构相比上一代将NVLink带宽提升了48倍以上,实现在单个GPU上通过简单编程即可提供大型AI超级计算机的能力。 面向AI先锋的新研究工具 谷歌云、Meta和微软是首批有望接入DGX GH200来探索其用于生成式AI工作负载的能力的公司。NVIDIA还打算将DGX GH200设计作为蓝图提供给云服务提供商和其他超大规模企业,以便他们能够进一步根据他们自己的基础设施进行定制。 谷歌云计算副总裁Mark Lohmeyer表示:“构建先进的生成式模型需要创新的AI基础设施。Grace Hopper超级芯片的全新NVLink和共享内存解决了大规模AI的关键瓶颈,我们期待它在谷歌云以及我们的生成式AI计划中发挥强大的能力。” Meta基础设施、AI系统及加速平台副总裁Alexis Bjrlin表示:“随着AI模型规模越来越大,它们需要可扩展的强大基础设施,以满足不断增长的需求。NVIDIA的Grace Hopper设计看起来能够让研究人员探索新的方法来解决他们面临的最巨大挑战。” 微软Azure基础设施企业副总裁Girish Bablani表示,“在以往训练大型AI模型是一项资源和时间密集型任务。DGX GH200所具备的处理TB级数据集的潜力使得开发人员能够在更大的规模和更快的速度下进行高级别的研究。” 全新NVIDIA Helios超级计算机将推进研发 NVIDIA正在打造自己的基于DGX GH200的AI超级计算机,以支持研发团队的工作。 这台名为NVIDIA Helios的超级计算机将配备四个DGX GH200系统。每个都将通过NVIDIA Quantum-2 InfiniBand网络互连,以提高训练大型AI模型的数据吞吐量。Helios将包含1024个Grace Hopper超级芯片,预计将于今年年底上线。 完全集成,专为巨型模型而构建 DGX GH200超级计算机包含NVIDIA软件,可为最大的AI和数据分析工作负载提供一个交钥匙式全栈解决方案。NVIDIA Base Command软件提供AI工作流程管理、企业级集群管理和多个加速计算、存储和网络基础设施的库,以及为运行AI工作负载而优化的系统软件。 此外还包含NVIDIA AI Enterprise,即NVIDIA AI平台的软件层。它提供100多个框架、预训练模型和开发工具,以简化生成式AI、计算机视觉、语音AI等生产AI的开发和部署。 供货情况 NVIDIA DGX GH200超级计算机预计将于今年年底上市。 我们认为,新架构GH200是为提供最大的吞吐量和可扩展性而设计的,其中每块Grace Hopper芯片需要9只800G速率光模块,而一套GH200中需要用150英里(241芯公里)的光纤,光通信需求弹性空间可观。 5.Omdia观察:2022年全球电信资本支出发展趋势 C114讯,市场研究公司Omdia最近发布了其Global Telecoms Cape