您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:数字基建新抓手:AI算力租赁 - 发现报告

数字基建新抓手:AI算力租赁

信息技术2023-08-22宋嘉吉、孙爽国盛证券睿***
数字基建新抓手:AI算力租赁

通信 AI算力租赁——数字基建新抓手 AI爆发导致GPU需求激增,美国限制收拢下芯片价格上行。2022年11月ChatGPT发布后,2个月内月活用户即达1亿,令人瞩目。相比之下,iTunes、Twitter分别用了6.5和5年。ChatGPT类人工智能大模 型应用爆发,导致全球对高算力GPU加速卡的需求激增,又受美国对华高科技行业逐渐严苛的限制威胁,中国科技公司纷纷大量采购英伟达芯片以应对即将到来的算力挑战。2022年12月A100售价为1万美元,2023年7月升至1.7万美元。 多地政府提出加强算力建设。算力建设获得从中央到地方的多项政策支持,2021年国家发改委就在《全国一体化大数据中心协同创新体系算力 枢纽实施方案》中明确了国家算力枢纽建设方案。与此同时,为构建多层次算力设施体系,北京、上海、深圳等地政府陆续发布了一系列政策鼓励国企、政府部门支持民间算力资源。 AI算力租赁赋能产业链各方,市场潜力巨大。算力租赁是一种通过云 证券研究报告|行业点评 2023年08月22日 增持(维持) 行业走势 通信沪深300 48% 32% 16% 0% -16% -32% 2022-082022-122023-042023-08 计算服务提供商租用计算资源的模式,我们认为,云算力采用“化整为 零”的方式赋能产业链各方,具备可持续性。需求侧,随着AIGC大模型所需算力狂飙,AI算力租赁市场潜力增加。根据OpenAI测算,自2012年至2018年,用于训练AI所需要的算力大约每隔3-4个月翻倍, 每年头部训练模型所需算力增长幅度高达10倍,整体呈现指数级上涨。供给侧,算力生产商与云平台的合作由来已久,用户可以通过阿里云、腾讯云等平台租用英伟达A100等显卡与AI处理器,随着英伟达DGX云的推出,AI云算力进入新阶段。 回本周期短,产品毛利率可观。以A100(80G)租赁服务为例,A100 (80G)显卡单价成本取10万元,现假设每张卡都得到充分租用,则按 照2023年8月19日国内云算力平台租用A100(80G)服务器的均价 15.1元/小时,考虑到各大平台竞争客户,经常性推出优惠活动,则假设平均实际租金为7.6元/小时,投入10亿元资金的实际回本周期为1.5-2年,按照平台最低定价计算,毛利率至少为46.3%。 哪些公司在AI算力租赁赛道占优?1)有先发优势,已有在手订单。目前手握订单的企业仍为少数,参考具有相似性的加密资产挖矿行业,率先卖出算力的公司能快速收回资金来扩大算力规模,从而将先发优势转 化为领跑实力;2)具备AI算力运维能力:AI智能运维成主流趋势,但受制于运维价值难以衡量、数据共享体系难以形成等原因,自研运维发展进度缓慢,拥有运维可视化的第三方服务商成为大多数企业的选择。3)资金实力强,能大量购入AI算力。 投资建议:算力租赁的核心资源在于资金、客户和运维能力,按此逻辑建议关注:1)恒为科技:国内优秀网络可视化及智能系统平台提供商;2)中贝通信:投入14亿强势进军AI算力领域,已完成对科大讯飞订 单的第一批交付;3)云赛智联:国资系IT服务商、资本实力雄厚;4)基础电信运营商:中国电信、中国移动、中国联通等;5)IDC厂商:润泽科技、光环新网、奥飞数据等。 风险提示:AI算力迭代过快;高端芯片断供。 作者 分析师宋嘉吉 执业证书编号:S0680519010002邮箱:songjiaji@gszq.com 分析师孙爽 执业证书编号:S0680521050001邮箱:sunshuang@gszq.com 相关研究 1、《通信:不容忽视的400G——打造AI高性价比算力》2023-08-18 2、《通信:当下运营商的三个核心逻辑》2023-08-13 3、《通信:AI虚拟小镇开源——加速AIAgent探索之旅》2023-08-11 请仔细阅读本报告末页声明 内容目录 1多地政府提出加强算力建设3 2商业模式:AI算力租赁,具备一定可持续性4 2.1算力租赁是什么?4 2.2AI算力需求旺盛,驱动供给进入新阶段4 2.2.1需求侧,AIGC大模型所需算力狂飙,AI算力租赁市场潜力巨大4 2.2.2供给侧,算力生产商与云平台的合作由来已久,当前进入新阶段6 2.3AI算力租赁的回本周期与毛利率测算7 3竞争优势:哪些公司在AI算力租赁赛道占优?7 3.1有先发优势,已有在手订单7 3.2具备AI算力运维能力9 3.3资金实力强,能大量购入AI算力10 4投资建议11 5风险提示11 图表目录 图表1:达到全球1亿用户所用时间(月)3 图表2:多地出台AI算力相关政策3 图表3:算力租赁,赋能产业链各方4 图表4:2012-2018年AI训练算力增长速度5 图表5:部分大语言模型参数及其所需的计算量5 图表6:阿里云部分GPU云服务器定价6 图表7:英伟达DGX云是世界上第一台云中的AI超级计算机6 图表8:国内算力租赁平台价格比较(截至2023年8月19日)7 图表9:云算力租赁平台竞争激烈8 图表10:各大数字资产云挖矿平台8 图表11:国内算力租赁相关公司订单情况8 图表12:湖北移动公司总经理一行来访中贝通信9 图表13:加快合肥智算中心建设步伐9 图表14:2023年企业智能运维能力投入成本变化9 图表15:企业搭建智能运维平台/工具的方式9 图表16:可观测能力建设10 图表17:智能运维发展趋势与挑战10 图表18:恒为智算可视化系统架构10 图表19:恒为双口100G类IB网卡10 图表20:中贝通信AI算力布局11 AI爆发导致GPU需求激增,美国限制收拢下芯片价格飙升。继2022年11月ChatGPT 发布后,2个月内ChatGPT月活用户达1亿,而根据WorldofEngineering数据,iTunes、 Twitter分别用了6.5和5年达到1亿用户。ChatGPT带来的人工智能爆发导致全球对高算力GPU加速卡的需求激增,又受美国对华高科技行业逐渐严苛的限制威胁,中国科技公司纷纷大量采购英伟达芯片以应对即将到来的算力挑战。2022年12月每颗A100价格约为1万美元,2023年7月Thinkmate上每颗价格升至1.7万美元。 图表1:达到全球1亿用户所用时间(月) 2个月 180 160 140 120 100 80 60 40 20 0 iTunesTwitterFacebookWhatsAppInstagramAppleAppStoreChatGPT 资料来源:WorldofEngineering,国盛证券研究所 1多地政府提出加强算力建设 算力建设获政策大力支持。算力资源是国家走向数字化强国过程中重要的基础资源,2021年国家发改委就在《全国一体化大数据中心协同创新体系算力枢纽实施方案》中明确了国家算力枢纽建设方案。与此同时,为构建多层次算力设施体系,北京、上海、深 圳等地政府陆续发布了一系列政策鼓励国企、政府部门支持民间算力资源。 图表2:多地出台AI算力相关政策 地 时间文件名文件中与AI算力相关的主要内容方 2023/1/10 成都 《成都市围绕超算智算加快算力产业发展的政策措施》 每年发放“算力券”用于支持算力中介服务机构、科技型中小微企业等使用国家超算成都中心、成都智算中心算力资源。 2023/5/30 北京 《北京市促进通用人工智能创新发展的若干措施》 新增算力建设项目纳入算力伙伴计划,加快推动海淀区、朝阳区建设北京人工智能公共算力中心、北京数字经济算力中心,形成规模化先进算力供给能力。 2023/5/31 深圳 《深圳市加快推动人工智能高质量发展高水平应用行动方案》 整合鹏城云脑、国家超算深圳中心等算力,建设城市级算力统筹调度平台,打造大湾区智算枢纽。 2023/4/18 上海 《上海市推进算力资源统一调度指导意见》 到2023年底接入并调度4个以上算力基础设施,可调度智能算力达到1000PFLOPS以上,2025年数据中心算力超过18000PFLOPS。 2023/7/12 上海 《上海市进一步提高产品、工程和服务质量行动方案》 上海将统筹布局长三角公共算力中心、边缘计算节点,超前布局物联网等新型基础设施,并制定长三角城市算力供应标准。 资料来源:各地人民政府官网,国盛证券研究所 2商业模式:AI算力租赁,具备一定可持续性 2.1算力租赁是什么? AI云算力采用“化整为零”方式赋能产业链各方。算力租赁是一种通过云计算服务提供商租用计算资源的模式,适用于各种大规模计算需求的场景,企业用户可以根据自己的需求租赁服务器或虚拟机实现大规模的计算任务,而无需拥有自己的计算资源。 对上游算力生产商而言,在算力硬件进入淡季、库存趋增时,能通过售卖云算力的方式,平滑收入的波动,并为旺季储备“有生”力量,及时满足回弹的市场需求; 对中游云服务厂商而言,则有助于增加客流; 对下游算力需求方而言,能最大化降低使用算力的门槛,驱动全民AIGC时代降临。 图表3:算力租赁,赋能产业链各方 资料来源:国盛证券研究所整理 据产业调研了解,目前AI算力租赁尚处于试水阶段,主要模式为: 算力买断:面向体量稍大且训练需求频繁的客户,往往采用买断独占模式,即GPU 只提供给特定客户使用,往往需签订长约。 算力零售:面对中小客户,签约时间较短,中间会有空档期,但价格随行就市。若未来GPU价格持续走高,该部分租金价格也会走高。 2.2AI算力需求旺盛,驱动供给进入新阶段 2.2.1需求侧,AIGC大模型所需算力狂飙,AI算力租赁市场潜力巨大 摩尔定律中,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。 继摩尔定律后,英伟达CEO黄仁勋提出黄氏定律:每12个月GPU性能翻一倍,且 不受物理制程约束。 根据OpenAI测算,自2012年至2018年,用于训练AI所需要的算力大约每隔3-4个月翻倍,总共增长了30万倍(而摩尔定律在相同时间只有7倍的增长),每年头部训练模型所需算力增长幅度高达10倍,整体呈现指数级上涨。 图表4:2012-2018年AI训练算力增长速度 资料来源:OpenAI、新智元,国盛证券研究所 AI大模型训练和推理所需的算力可观,前期资金投入巨大。以ChatGPT为例,不考虑与日活高度相关的推理过程所需的算力,仅考虑训练过程,根据论文《LanguageModels areFew-ShotLearners》的测算,ChatGPT的上一代GPT-3(1750亿参数版)所需的算力高达3640PF-days(即假如每秒做一千万亿次浮点运算,需要计算3640天)。已知单张英伟达A100显卡的算力约为0.6PFLOPS,则训练一次GPT-3(1750亿参数版),大约需要6000张英伟达A100显卡,如果考虑互联损失,大约需要上万张A100,按单张A100芯片价格约为10万元,则大规模训练就需要投入约10亿元,非头部厂商难以承担。而GPT4的模型参数更大,训练的标识符更多,所需算力更为可观。 4月5日,ChatGPT官网停止Plus付费项目的购买。在升级界面,OpenAI表示“因需求量太大暂停了升级服务”。这在一定程度上反映出,即便是OpenAI这样的头部模型厂商,也难以承载用户对ChatGPT的狂热需求。 图表5:部分大语言模型参数及其所需的计算量 资料来源:《LanguageModelsareFew-ShotLearners》,国盛证券研究所 2.2.2供给侧,算力生产商与云平台的合作由来已久,当前进入新阶段 从阿里云、谷歌云和甲骨文云等云平台的官网可以看出,用户可以通过其租用英伟达A100、英伟达V100、谷歌TPU等显卡与人工智能加速处理器。此类服务一般根据硬件性能或使用时长等方式定价。近日英伟达DGX云的推出,将AIGC云算力推入新阶段。 图表6:阿里云部分GPU云服务器定价 资料来源:阿里云,国盛证券研究所 3月,英伟达在其2023