您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [华西证券]:ChatGPT,英伟达DGX引爆AI“核聚变” - 发现报告

ChatGPT,英伟达DGX引爆AI“核聚变”

信息技术 2023-03-25 刘泽晶 华西证券 花落陌
报告封面

英伟达加速计算助力云上业务场景 英伟达持续赋能加速计算AI潮流,在GTC会议主题演讲上,英伟达崭新全新的AI相关产品助力全球AI生态。基础软件,英伟达推出全新加速库;芯片方面,英伟达推出数据中心Grace CPU,具备高能效、高运行速度等优势;服务器,英伟达推出 DGX超级计算机;我们认为此次GTC大会的重中之重是英伟达推出全新AI服务平台,AI的“Iphone”时刻已经来临,AI foundations云服务助力初创企业具备拥有生成式AI的能力,且已经具备多种生成式AI模型和相应案例。我们认为以英伟达为例,提供全栈AI云解决方案,全球底层算力储备充分,AI赋能千行百业的“燃油”已经充足。 大模型厂商具备先发优势 我们认为OpenAI和百度可以率先发布大模型的根本原因是两者算力平台储备丰厚;大模型具备先发优势,大模型或是人工智能的本质是算法的不断迭代学习,而人类反馈强化奖励机制有助于机器更好的理解人类的语境语义,在此基础上,率先发布的算法模型厂商具备先机,以GPT-4为例,GPT-4的强大是模型本身的“不断进化”,我们认为GPT-4的成功发布与GPT3.5的自身算法迭代和用户测评反馈密不可分。百度同样具备大模型的先发优势,已经抢占相应先机,有望通过迭代方式迭代出更加出色的人工智能大模型,从而赋能千行百业。 AI“大爆炸”时代已来临 目前应用方面已有诸多案例,例如OpenAI已经接入众多应用端,例如New Bing、办公软件,微软Office 365 copilot、工业软件,微软Dynamics 365 Copilot。AI加速赋能应用的时代已经到来 ,算力与基础设施的储备已经完善,AI“燃油”已经充足;大模型储备发面,以Open AI和百度为例,相关的大模型储备已初具能力,我们判断AI加速赋能应用的时代已经到来,以微软相关产品为例,AI赋能应用的“引线”已经点燃,我们认为率先通过AI赋能的应用产品具备“流量”的先发优势,无论是客户数量还是功能体验都会具备优势,在原有市场中的竞争壁垒更加坚厚,成为解放生产力的AI助手。 投资建议: 我们认为AIGC的出世会产生革命性的影响,同时有望赋能千行百业。我们梳理了三条路径图,积极的推荐以下三条投资主线: 1)具备算力基础的厂商,受益标的为寒武纪、海光信息、浪潮信息、中科曙光、景嘉微、龙芯中科、神州数码、拓维信息; 2)具备AI算法商业落地的厂商,重点推荐科大讯飞、拓尔思,其他受益标的为:海天瑞声; 3)AIGC相关技术储备的应用厂商,受益标的为:百度、同花顺、三六零、金山办公。 风险提示 核心技术水平升级不及预期的风险;AI伦理风险;政策推进不及预期的风险;中美贸易摩擦升级的风险。 1.ChatGPT,英伟达DGX引爆AI“核聚变” 1.1.英伟达加速计算助力云上业务场景 英伟达持续赋能加速计算AI潮流:2023年3月23日,英伟达GTC会议主题演讲开启,是一场全球的科技盛宴,本次大会的宗旨是告诉全球,加速计算是可以实现的。我们认为其中最重磅的消息,是英伟达展示全新的芯片和系统、加速库、云服务、AI服务以及助力以助力全球AI生态,我们认为此次GTC大会实则为一场全球AI盛宴。在本届GTC技术大会上,NVIDIA创始人兼CEO黄仁勋在大会主题演讲中分享了NVIDIA加速计算平台如何推动人工智能、元宇宙、云技术、可持续计算的下一波浪潮。 基础软件方面,英伟达推出全新加速库:加速库着力解决的是普通计算机无法解决的问题,加速计算并非易事,它需要从芯片、系统、网络、加速库到重构应用的全栈发明。从图形、成像、粒子或流体动力学、量子物理学到数据处理和机器学习,每个经过优化的堆栈都会加速对应应用领域。目前此加速库 ,已经应用在多个领域,持续开辟AI加速的新市场。例如汽车航空空气动力学仿真、量子电路仿真、推荐系统、数字人、优化物流服务、视频处理、基因计算、芯片制造、等方面。 硬件架构方面,英伟达推出数据中心CPU,Grace:加速云数据中心的CPU侧重点与过去有着根本性的不同。在AI和云服务中,加速计算卸载可并行的工作负载,而CPU可处理其他工作负载,比如WebRPC和数据库查询。因此GraceCPU脱颖而出,其中包含了72个Arm核心,由超高速片内可扩展的、缓存一致的网络连接,可提供3.2 TB/s的截面带宽,内存系统与LPDDR低功耗内存购成,这是带有被动冷却功能的计算模组,与以往CPU不同,此款CPU可以在云数据中心规模下实现高能效,非常适合云计算应用和科学计算应用。此外,在微服务方面,Grace的速度比最新一代x86 CPU的平均速度快1.3倍,而在数据处理中则快1.2倍。 服务器方面,英伟达推出DGX(超级计算机):DGX配有8个H100 GPU模组,H100配有Transformer引擎,旨在处理类似令人惊叹的ChatGPT模型,8个H100模组通过NVLINK Switch彼此相连,以实现全面无阻塞通信。8个H100协同工作,类似一个巨型GPU。此外,根据介绍,NVIDIA DGX H100是全球客户构建AI基础设施的蓝图,现在已全面投入生产。此款服务器是优势在于: 1、DGX H100是一个完全集成的硬件和软件解决方案,它包括NVIDIA Base Command和NVIDIA AI Enterprise软件套件。 2、此款服务器包含极高的新能、网络速度和拓展性,其架构为生成式AI、自然语言处理和深度学习推荐模型等最大的工作负载提供了强大的支持。 我们认为此次GTC大会的重中之重是英伟达推出全新AI服务平台:我们已经在《ChatGPT,百度文心一言畅想》中论证,平台实为模型和算力之间的“桥梁”,是AIGC或大模型生成的必备要素,不论是数据库还是编译器,都需要通过平台来实现资源的合理分配以达到软硬件的最优组合,从而大幅提升模型效率 。平台通过调用数据包来适配软硬件之间的结构,来达到模型的最优组合,从而提升模型乃至整个虚拟机的效率。而英伟达此次的推出的DGX云与生成式AI服务恰恰印证了我们的观点。 AI的“Iphone”时刻已经来临:此次发布会上,英伟达CEO黄仁勋表示我们正处于AI的“iPhone时刻。初创公司竞相构建具有颠覆性的产品和商业模式,而老牌公司则在寻求应对之法。生成式AI引发了全球企业制定AI战略的紧迫感。英伟达推出英伟达DGX Cloud,并与Microsoft Azure、Google GCP和OracleOCI合作,为客户提供出色的NVIDIAAI以及全球主要的云服务提供商。此外,Oracle Cloud Infrastructure(OCI)将成为首个NVIDIA DGX Cloud,是一种先进的DGX AI超级计算机。 英伟达推出英伟达AIfoundations云服务:此外,黄仁勋表示生成式AI将重塑所有行业,生成式AI是一种新型计算机,一种我们可以用人类语言进行编程的计算机。这种能力影响深远,每个人都可以命令计算机来解决问题,而之前这是只有计算机程序员才能接触的领域。现在每个人都可以是程序员。生成式AI是一种新型计算平台,与PC、互联网、移动设备和云类似。与之前的计算时代类似,先行者正在打造新的应用,并成立新公司,以利用生成式AI的自动化和协同创作能力。此外,英伟达将通过中国云服务商提供AI超算能力,中国初创公司也能开发大模型,中国可用的英伟达芯片包括Ampere和Hopper芯片是A800和H800。 英伟达打造Aifoundations云服务,企业可以通过在NVIDIA DGX Cloud上的NVIDIA NeMo服务快速采用生成式AI,通过此种云服务能够构建、改进和操作定制的大型语言模型和生成式AI模型,目前已知的服务包括: 1、NeMo服务让企业快速定制基础语言模型; 2、NVIDIA Picasso服务加速跨图像、视频和3D的模拟和创意设计; 英伟达AI foundation功能强大:目前已经包括大模型训练更加智能,推进生物研究蛋白质工程构建AI模型、AT&T通过英伟达支持智能扬声器和客户呼叫中心、AI生成式语言应用等典型应用案例。目前已有合作伙伴例如埃森哲、德勤、Pytorch等。 英伟达提供全栈AI云解决方案,全球AI+时代已经:英伟达提供的全站云服务包括基础设施、调度、加速库、加速框架、应用框架全套解决方案, 上层应用包括自然语言处理、机器视觉、智能驾驶、机器人、生物计算等全行业的应用框架大模型解决方案。我们认为在英伟达的赋能时代下,全球算力储备, 加速库与大模型储备充足,在AI云服务的赋能下,所有科技企业有望具备生成式AI的能力,AI底层平台框架基本完善,AI赋能千行百业的“燃油”已经充足,即将迎来“AI大爆炸”的全新时代。 1.2.大模型具备先发优势,迎接“AI大爆炸”时代 算力平台储备充分:无论是Open AI(微软)还是百度在底层“燃料”(算力)部分储备皆已充分。 OpenAI方面,在ChatGPT举世闻名之前,微软“陪跑漫漫长夜”:根据36氪和新浪的消息,早在2019年,微软斥资几亿美元为Open AI的训练打造一台超级服务器,其中包括上万张英伟达A100,旨意为ChatGPT和New Bing提供算力基础,同时,微软还在Azure的60多个数据中心部署了几十万张GPU,用于ChatGPT的推理。价格上,英伟达A100价格约为15000美元/张,以一万张为例,AI芯片造价已经近1.5亿美元。此外,根据36氪的消息,微软正在打造下一代超级计算机来为为生成式AI进步奠定基础。 百度方面,百度底层算力技术实力强劲:百度具备建设百度智算中心、百度AI异构计算平台的能力,此外自身具备自研的昆仑芯AI加速器与昆仑芯AI加速卡,具备多重领先优势。我们认为算力储备是大模型研发的基础,而Open AI和百度已经具备相应能力,这也是百度和OpenAI率先发布大模型的根本原因。 大模型具备先发优势:ChatGPT的核心是RLHF(人类反馈的强化模型),这一种独特的奖励机制,我们可以理解成模型可以通过人们的回馈不断强化自身学习,最终得到用户想要呈现的效果,无论是谷歌的Lamda还是百度的文心一言皆具有类似的此功能,我们认为这也是OpenAI与百度率先发布自身大模型的本质原因。 GPT-4的强大是模型本身的“不断进化”:相较于ChatGPT3.5而言,1、模型更加强大,更可靠、更有创意、且更能够理解细微的指令,例如在各种专业考试中取得优异成绩;2、文章理解、语义理解能力更强,例如总结和加工文章,GPT-4相较于GPT3.5更有优势;3、GPT-4不仅仅是语言模型,而是多模态融合模型,GPT-4可以具备“人类思维”并理解“图片的内容”并进行反馈,比如考试题推理、纸质摘要、图像分析、图像描述等功能。4、具备极强的复杂推理机制;5、多种语言方面均表现出优越性;我们认为GPT-4的成功发布与GPT3.5的自身算法迭代和用户测评反馈密不可分。 同理,百度同样具备算法的先发优势:我们认为我国ChatGPT“领头羊”同样具备大模型的领先优势,大模型或是人工智能的本质是算法的不断迭代学习,而人类反馈强化奖励机制有助于机器更好的理解人类的语境语义,在此基础上,率先发布的算法模型厂商具备先机,通过自身的生态和用户数量可以更好的赋能自身模型。总结而言,率先发布大模型应用的厂商抢占了先机,有望迭代出更加出色的人工智能大模型,更有可能在AI的浪潮中率先赋能千行百业。 目前应用方面已有诸多案例:OpenAI已经接入众多应用端,例如1、New Bing,搜索引擎搜索更便捷、沟通更高效、功能更多元,且AI答案的可靠性已得到提升,已经加入AI聊天、相关写作、AI作图等功能;2、办公软件,微软Office 365 copilot,实为解放生产力的AI助手,办公软件具备自动编辑、数据可视化分析、提供会议安排、展史精美PPT等功能;3、工业软件,微软Dynamics 365 Copilot,AI融入CRM与ERP,C