AI智能总结
核心观点 ⚫英伟达推出下一代AI超级芯片GH200。美国当地时间8月8日早上,英伟达创始人、CEO黄仁勋在世界计算机图形会议SIGGRAPH 2023上进行了主题演讲。在本次演讲中,英伟达宣布推出了下一代NVIDIA GH200 Grace Hopper超级芯片,并配备了全球首发的HBM3e内存。GH200由72核Grace CPU和4 PFLOPS的Hopper GPU组成,内存容量高达141GB,提供每秒5TB的带宽。通过将两个GH200芯片连接到一起,可以得到性能更强的计算服务器。与前一代相比,双配置的内存容量是之前的3.5倍,带宽是之前的3倍。GH200芯片有望于2024年Q2末投入生产。 证券分析师浦俊懿021-63325888*6106pujunyi@orientsec.com.cn执业证书编号:S0860514050004 ⚫芯片升级带来更高的能效,在同等预算和同等工作负载条件下都较以往以CPU为主的数据中心有很大提升。在过去60年里,通用计算是相对主流的,用1亿美元可以打造8800块x86 CPU组成的数据中心,功耗是5MW。而在当下以及未来的加速计算和AI计算时代,用同样的1亿美元,可以打造由2500块GH200芯片组成的数据中心,功耗仅有3MW,并且其AI推理性能将达到上述CPU系统的12倍,能效达到20倍。如果要达到和1亿美元的x86 CPU数据中心相同的AI性能,仅需要210块GH200组成的计算平台即可,功耗仅为0.26MW,成本也只需800万美元。 证券分析师陈超021-63325888*3144chenchao3@orientsec.com.cn执业证书编号:S0860521050002 证券分析师谢忱xiechen@orientsec.com.cn执业证书编号:S0860522090004 ⚫英伟达仍旧牢牢占据AI基础设施领域的主导地位。自ChatGPT引领生成式AI浪潮以来,NVIDIA GPU已成为支持生成式AI和大模型训练的大算力AI芯片首选。随着此次GH200超级AI芯片的升级以及多款GPU、服务器产品的推出,英伟达展现了在AI基础设施领域的绝对主导地位。 ⚫英伟达持续拓展AI生态,与Hugging Face合作、推出AIWorkbench和AIEnterprise4.0。英伟达将为HuggingFace上构建大型语言模型和其他高级AI应用程序的开发人员提供生成式AI的超级计算能力,通过Hugging Face平台可以直接在NVIDIA DGX Cloud上训练模型。AI Workbench是一个统一易用的工作空间,帮助开发人员快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIA DGX Cloud上。NVIDIA AI Enterprise 4.0新支持了多款软件和工具,有助于简化生成式AI部署。 联系人杜云飞duyunfei@orientsec.com.cn 联系人覃俊宁qinjunning@orientsec.com.cn 联系人宋鑫宇songxinyu@orientsec.com.cn ⚫英伟达成为AI大模型开发的首选,GPU短缺问题短期难解决。英伟达在AI芯片领域的长期积累使其在生成式AI浪潮中占据了主导地位,英伟达的GPU也成为了各大科技公司争相采购的对象。但GPU的供应瓶颈限制了人工智能领域的快速发展,NVIDIA H100正面临有史以来最严重的缺货。根据GPU Utils的测算,目前市场上对H100的需求在43.2万张左右,这个数字还没有包括中国区特供的H800,国内各家大模型厂商对H800的需求也居高不下。英伟达目前也在积极提升产能,预计算力供应短缺的情况可能还会持续一段时间。 投资建议与投资标的 我们认为,算力板块有望维持较高景气度,算力产业链值得重视。建议关注海光信息(688041,买入)、浪潮信息(000977,未评级)、中科曙光(603019,买入)、拓维信息(002261,未评级)、优刻得-W(688158,未评级)、亚康股份(301085,未评级)等。 风险提示 技术落地不及预期;政策监管风险;芯片产能不足风险 目录 一、SIGGRAPH 2023召开,英伟达AI布局持续演进...................................4 1.1 AI芯片再度升级,英伟达巩固AI算力领域主导地位....................................................41.2 AI生态持续拓展,助力生成式AI开发与多领域应用....................................................7 二、全球算力需求居高不下,算力板块仍具潜力............................................9 投资建议与投资标的....................................................................................10 风险提示......................................................................................................10 图表目录 图1:生成式AI是AI的“iPhone时刻”..........................................................................................4图2:英伟达推出下一代AI超级芯片GH200...............................................................................4图3:由两个GH200芯片组成的计算平台...................................................................................4图4:由256张GH200组成的DGX GH200系统........................................................................5图5:同等预算下GH200数据中心的能效是x86 CPU数据中心的20倍.....................................5图6:同等性能下GH200数据中心的成本为x86 CPU数据中心成本的1/12...............................6图7:英伟达推出基于RTX 6000的RTX Workstation.................................................................6图8:英伟达推出基于L40S GPU的OVX服务器........................................................................6图9:英伟达与Hugging Face达成合作......................................................................................7图10:NVIDIA AI Workbench工作流程.......................................................................................7图11:英伟达升级AI Enterprise 4.0............................................................................................8图12:英伟达Omniverse采用OpenUSD标准,提供多种API服务...........................................8图13:ChatUSD..........................................................................................................................9图14:DeepSearch.....................................................................................................................9图15:中国AI芯片市场规模及增速...........................................................................................10图16:2021年中国AI加速卡市场份额占比(出货量口径).....................................................10 一、SIGGRAPH2023召开,英伟达AI布局持续演进 1.1AI芯片再度升级,英伟达巩固AI算力领域主导地位 英伟达推出下一代AI超级芯片GH200,配备全球首发的HBM3e内存。美国当地时间8月8日早上,英伟达创始人、CEO黄仁勋在世界计算机图形会议SIGGRAPH2023上进行了主题演讲。本次演讲重点仍旧是人工智能,在黄仁勋眼中,生成式AI是AI的“iPhone时刻”。他谈道,自然语言是新的编程语言,我们已经使计算机科学民主化,现在每个人都可以成为程序员。大语言模型是新的计算平台,这个新计算平台将赋能各种新的应用,并让以前的所有计算平台都能够受益,例如Office和Copilot。在本次演讲中,英伟达宣布推出了下一代NVIDIAGH200GraceHopper超级芯片,并配备了全球首发的HBM3e内存。 数据来源:SIGGRAPH,东方证券研究所 GH200芯片将于2024年Q2投产,性能较H100GPU大幅提升。在2022年3月,英伟达就推出了GraceHopper的超级芯片,首次将CPU和GPU融合在一块主板上,直到今年5月才正式量产,本次推出的是采用了HBM3e的新型芯片。GH200芯片专为高性能计算和生成式AI时代打造,将于今年年底左右进行样片测试,并于2024年Q2末投入生产。GH200由72核Grace CPU和4PFLOPS的Hopper GPU组成,通过NVLinkC2C技术连接,HBM3e内存容量高达141GB,提供每秒5TB的带宽。其每个GPU的容量达到NVIDIA H100 GPU的1.7倍,带宽达到H100的1.55倍。通过将两个GH200芯片连接到一起,可以得到性能更强的计算服务器。与前一代相比,双配置的内存容量是之前的3.5倍,带宽是之前的3倍。 GH200具备极强的可扩展性,最多支持256张芯片连接形成DGXGH200计算平台。通过NVLink Switch技术,可以将256块GH200组成DGXGH200SuperPod,提供高达1EFLOPS的算力和144TB的高速内存。再通过NVIDIA Quantum-2 InfiniBand Switch技术,用高速、低延时的网络连接多个DGXGH200SuperPod,进而搭建出面向生成式AI时代的Grace Hopper AI超级计算机。 芯片升级带来更高的能效,在同等预算和同等工作负载条件下都较以往以CPU为主的数据中心有很大提升。在过去60年里,通用计算是相对主流的,用1亿美元可以打造8800块x86CPU组成的数据