盈利预测及投资建议:我们维持之前的盈利预测,预计FY2025E-FY2027E的营业收入为1224.94/ 1525.61/ 1478.89亿美元(下同),净利润739.63亿/929.05亿/862.67亿美元,同增128.9%/25.6%/-7.1%。 考虑其在AI领域的稀缺性,同时我们认为这一轮的需求周期远未结束,给予英伟达FY2025E PE 40X,提升目标市值至2.79万亿美元,目标价1116美元,维持“增持”评级。 GTC大会推出全新Blackwell架构及GB200。在Blackwell架构下,新的B200芯片拥有2080亿个晶体管,采用台积电定制的4NP工艺制造。芯片将两个die连接成一个统一的GPU,die之间的通信速度可以达到10TB/秒。GB200超级芯片由两个B200 GPU和一个Grace CPU结合,通过900GB/s的超低功耗NVLink连接。GB200在FP4精度下提供40Pflops的算力,具备16TB/s的HBM和3.6TB/s的显存宽带。 我们认为Blackwell不仅在性能方面领先,亦有助于降低数据中心的运营成本,从而降低总拥有成本(TCO)。GB200 NVL 72拥有9个机架,内置36颗GRACE CPU和72颗Blackwell架构GPU,通过第五代NVL互联,在FP8精度下,AI训练性能可达720PFLOPs算力,在FP4精度下,推理性能为1440PFLOPs算力,相较Hopper分别提升22倍、45倍。以训练1.8万亿的GPT4 MoE为例,Hopper架构需8000块GPU、训练90天时间,能耗为15 MW,而Blackwell架构在同样的时间内只需2000块GPU,能耗仅4 MW,节约约1/4。 软件是英伟达未来的增量空间。NIM改变应用程序的编写方式。NIM软件包是根据NVIDIA的加速计算库和生成式AI模型构建的。客户可以使用现成的NIM微服务,或者NVIDIA可以为之构建专属的AI和AI助手,为特定公司所需的模型专业技能提供专门训练。 风险提示;出口限制的不确定性;主要云厂商资本开支节奏放缓;公司产品研发及及出货速度不及预期,芯片市场竞争加剧。 1.全新Blackwell架构推动算力边界不断扩展 GTC大会推出全新Blackwell架构及GB200。在Blackwell架构下,新的B200芯片拥有2080亿个晶体管,采用台积电定制的4NP工艺制造。芯片将两个die连接成一个统一的GPU,die之间的通信速度可以达到10TB/秒。GB200超级芯片由两个B200 GPU和一个Grace CPU结合,通过900GB/s的超低功耗NVLink连接。GB200在FP4精度下提供40Pflops的算力,具备16TB/s的HBM和3.6TB/s的显存宽带。 图1全新B200 GPU 图2全新GB200超级芯片 图3GB200性能参数 Blackwell相较Hopper升级明显,客户积极导入。Blackwell在单芯片训练方面的FP8性能是其上一代Hopper架构的2.5倍,在推理方面的FP4性能是其上一代架构的5倍。它具有第五代NVLink互连,速度是Hopper的两倍,并且可扩展至576个GPU。Blackwell与现有系统(如Hopper)兼容,目前Google、甲骨文、微软、OpenAI都在为Blackwell的应用做准备。 图4Blackwell相较Hopper的升级 Blackwell架构在训练、推理端表现均大幅提升。GB200 NVL 72拥有9个机架,内置36颗GRACE CPU和72颗Blackwell架构GPU,通过第五代NVL互联,在FP8精度下,AI训练性能可达720PFLOPs算力,在FP4精度下,推理性能为1440PFLOPs算力,相较Hopper分别提升22倍、45倍。以训练1.8万亿的GPT4 MoE为例,Hopper架构需8000块GPU、训练90天时间,能耗为15 MW,而Blackwell架构在同样的时间内只需2000块GPU,能耗仅4MW,节约约1/4。我们认为Blackwell不仅在性能方面领先,亦有助于降低数据中心的运营成本,从而降低总拥有成本(TCO)。推理端,以1.8万亿的G PT4M oE为例,FP4精度下Blackwell架构的推理性能相比Hopper架构提升了30倍。 图5GB200 NVL72性能参数 图6Blackwell架构训练端性能 图7Blackwell相较Hopper的升级 本次GTC大会推出了更强大的新一代AI超级计算机,由GB200 Grace Blackwell超级芯片提供支持的NVIDIA DGX SuperPOD,可用于处理万亿参数模型,并具有持续的正常运行时间,以实现超大规模生成式AI训练和推理工作负载。DGX SuperPOD采用新型高效液冷机架扩展架构,采用NVIDIA DGX GB200系统构建,可在FP4精度下提供11.5 exaflops的AI超级计算能力和240 TB的快速内存,并可通过额外的机架进行扩展。 2.创新型应用:推理微服务、虚拟孪生、自动驾驶、 人形机器人等 NIM改变应用程序的编写方式。本次GTC大会推出Nvidia Inference Microservice(NIM),即AI推理微服务。NVIDIA NIM软件包是根据NVIDIA的加速计算库和生成式AI模型构建的,这些微服务支持行业标准API,易于连接,可在NVIDIA庞大的CUDA安装基础上工作,针对新GPU进行重新优化,并不断扫描安全漏洞和威胁。客户可以使用现成的NIM微服务,或者NVIDIA可以为之构建专属的AI和AI助手,为特定公司所需的模型专业技能提供专门训练,以助力您创建宝贵的新服务。Cohesity、NetApp、SAP、ServiceNow和Snowflake等已借助NIM构建AI助手和虚拟助理。未来,公司会将精力放在组装AI模型,赋予它们任务,给出工作产品示例,审查计划和中间结果,而不是编写软件。 图8NIM内置预训练的AI模型 图9NIM基于英伟达CUDA的安装基础 Omniverse引导AI学习物理世界。NVIDIA宣布将以API形式提供NVIDIA Omniverse Cloud,将全球领先的工业数字孪生应用和工作流创建平台的覆盖范围扩展到整个软件制造商生态系统 。 借助Omniverse Cloud API,开发者能够轻松地将Omniverse的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。目前正在采用Omniverse服务的软件制造商包括Ansys、Cadence、达索系统旗下3DEXCITE品牌、Hexagon、微软、罗克韦尔自动化、西门子和Trimble等。值得一提的是,NVIDIA将把Omniverse引入Apple Vision Pro中。 图10Omniverse应用于机器人工厂 图11Omniverse将引入VisionPro NVIDIA的计算平台已经应用在自动驾驶、人形机器人中。自动驾驶方面,比亚迪已选择NVIDIA的下一代计算平台用于其自动驾驶汽车,在DRIVE Thor上构建其下一代电动汽车车队。机器人方面,本次GTC发布了Isaac Perceptor软件开发工具包,该工具包具有最先进的多摄像头视觉里程计、3D重建和占用地图,以及深度感知功能;推出用于人形机器人的新型计算机Jetson Thor,基于Thor系统级芯片,并对Isaac机器人平台进行了重大升级;推出为人形机器人设计的通用基础模型Project GR00T。 图12BYD采用英伟达车载计算平台DRIVE Thor 图13推出面向人型机器人的通用基础模型GR00T项目 3.盈利预测 我们维持之前的盈利预测,预计FY2025E-FY2027E的营业收入为1224.94/ 1525.61/ 1478.89亿美元,同增101.1%/24.5%/-3.1%。受益于供应链价格调整及规模效应进一步显著,英伟达毛利率水平维持高位,预计经调整净利润分别为739.63亿/929.05亿/862.67亿美元,同增128.9%/25.6%/-7.1%。 图14英伟达核心指标预测 估值方面,我们认为英伟达在AI引擎领域具有较高的软硬件协同优势,在生成式AI及加速计算领域均已建立了强大的生态体系,且在现有绝对领导优势的情况下不断突破自身上限,持续推出各类具有行业领导性的标杆类产品,已经形成多维度的垄断优势,并正向反馈进一步积累规模优势。其在AI算力行业中保持强大的盈利能力和持久性,在数据中心高端GPU方面的技术和市场优势极为明显,短期内难以撼动,存在极强的标的稀缺性。我们预计英伟达GPU的需求将在2025年延续强劲的需求,同比仍将呈现较高速增长。基于FY2025E PE40X,提升目标市值至2.79万亿美元,目标价1116美元,维持“增持”评级。 图15英伟达财务报表预测(单位:百万美元) 4.风险提示 出口限制的不确定性;主要云厂商资本开支节奏放缓;公司产品研发及出货速度不及预期;芯片市场竞争加剧。