您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:2022年及2023年一季度业绩点评:AI浪潮迎催化,业绩稳增待成长 - 发现报告

2022年及2023年一季度业绩点评:AI浪潮迎催化,业绩稳增待成长

2023-05-04马天诣民生证券无***
AI智能总结
查看更多
2022年及2023年一季度业绩点评:AI浪潮迎催化,业绩稳增待成长

奥飞数据发布2022年及2023年一季度报告。2022年公司实现营收10.97亿元,同比下降8.9%;归母净利润1.66亿元,同比增加14.58%;扣非归母净利润1.09亿元,同比下降28.8%。单季度来看,4Q22公司实现营收2.71亿元,同比下降3.5%,环比下降2.7%;归母净利润5453万元,同比增长157.5%,环比增加49.6%。1Q23,公司实现收入3.2亿元,同比增长18.8%;实现归母净利润0.4亿元,同比增长4.5%;实现扣非净利润0.42亿元,同比增长36.5%。 智算中心是大势所趋。过去计算机行业假设为“数字处理会变得越来越便宜”,但考虑到不断上升的研究复杂性和竞争性,斯坦福人工智能研究所副所长克里斯托弗曼宁表示:最前沿模型的训练成本还在不断上升。我们认为,AI计算系统正在面临计算平台优化设计、复杂异构环境下计算效率、计算框架的高度并行与扩展、AI应用计算性能等挑战。算力的发展对整个计算需求所造成的挑战会变得更大,提高整个AI计算系统的效率迫在眉睫。 智算中心有望拉动投资额百亿元,高功率机柜10万余个。单智算中心算力约2.69Petaflop/s, 根据我们测算 , 单大模型训练算力需求约280.67 Petaflop/s。我们认为未来“大模型带小模型”将成为趋势,假设算力需求放大50倍(多家二三线互联网小厂接入大模型API训练),则总算力需求扩至14033.5 Petaflop/s,此时需要智算中心约5217个(合52170个机柜)。但由于上述计算以39kw功率为基础计算,密度通常为普通高功率机柜2~4倍,取放大系数为2,则需要机柜10.4万个。 从ChatGPT所需要GPU数量测算,未来所需要高功率机柜近7.5万个。 根据钛媒体,GPT 3.5完全训练需要A100芯片近3万颗,对应英伟达DGX A100服务器近3750台。考虑到英伟达DGX A100服务器单台最大功率为6.5kw,假设平均功率为4kw/台,则10kw功率机柜可搭载2.5台AI服务器。为满足3750台AI服务器,需要建设机柜1500个,假设算力需求扩至50倍,共需要高功率机柜约7.5万个。 投资建议:我们看好“东数西算”+AI大参数模型背景下,下游企业需求复苏。我们认为随着公司多地数据中心扩建平稳落地,多元的客户结构也有望增强公司收入规模化效应,并带来更平稳的经营性现金流。预计23年~25年公司收入14.7/20.0/27.8亿元,EBITDA 5.4/7.8/10.8亿元,对应5月4日收盘价EV/EBITDA 25/18/13x,归母净利润2.1/3.3/5.5亿元,对应5月4日收盘价P/E 48/30/18x。首次覆盖,给予“推荐”评级。 风险提示:市场竞争加剧风险,项目交付风险,海外业务拓展不及预期。 盈利预测与财务指标项目/年度 1公司发布2022年报及2023年一季报 从收入和利润来看,2022年公司归母净利润同比增加。2022年公司实现营收10.97亿元,同比下降8.9%;归母净利润1.66亿元,同比增加14.58%;扣非归母净利润1.09亿元,同比下降28.8%。单季度来看,4Q22公司实现营收2.71亿元,同比下降3.5%,环比下降2.7%;归母净利润5453万元,同比增长157.5%,环比增加49.6%。1Q23,公司实现收入3.2亿元,同比增长18.8%;实现归母净利润0.4亿元,同比增长4.5%;实现扣非净利润0.42亿元,同比增长36.5%。 图1:公司收入情况 图2:公司归母净利润情况 图3:公司分季度收入 图4:公司分季度净利润 从费用来看,2022年公司研发费用率提升,期间费用率维持在低位水平。公司重视研发投入,紧紧围绕着国家政策的引导、行业发展的趋势和客户的需求进行相应的技术研发和技术更新,研发费用率略有增加,由2021年的3.4%增长至2022年的3.7%。销售、管理、财务费用率维持在低位水平,年度同比来看:2022年财务费用同比下降4.65%,主要因为利息收入增加;管理费用同比提升20.01%,主要由于公司职工薪酬增加;销售费用同比下降8.34%,主要是由于疫情期间交通差旅减少及公司业务推广费减少。 图5:公司费用情况 图6:公司费用率保持稳定 2智算中心是大势所趋,高功率机柜需求井喷 全球维度看,以EQIX、DLR、IRM等IDC龙头公司收入均呈稳步增长,3FQ22三家公司收入分别同比增长9.9%/5.2%/13.9%。我们认为海外IDC企业收入稳步增长主要受益于下游客户加大对数字化转型投入正相关。此外,海外区域分布式混合云也加大了流量算力需求。回顾国内,自3Q21电价市场改革以来,IDC公司总成本承压。结合REITs、ESG等新兴投融资方式,我们认为“绿色化能力较差”的IDC公司将面临融资成本上升,PUE改造升级等内外部压力,预计未来行业竞争格局出现改善。 图7:海外IDC公司收入及增速 图8:万国数据、秦淮数据、世纪互联上架率回升 AI+数字经济拉动IDC需求稳定增长;需求拉动,数据中心加速向大型化转型。根据中国信通院统计,2021年我国数据中心行业市场收入达到1,500亿元左右,近三年年均复合增长率达到30.7%。AI+数字经济加速云产业发展,国内互联网行业受人口红利减弱及反垄断政策的影响,互联网厂商近年来资本开支呈现疲软态势。我们认为,AI的激增算力将加大对算力提升的需求,加之数字经济政策进一步推动企业上云,云计算产业有望加速发展。 我国数据中心机架规模稳步增长。按照标准机架2.5kW统计,2021年,我国在用数据中心机架规模达到520万架,近5年CAGR超过30%。其中,大型以上数据中心机架规模增长更为迅速,按照标准机架2.5kW统计,机架规模420万架,占比达到80%。 图9:我国数据中心市场规模 图10:我国数据中心机架规模 IDC基础设施有明显的地域性特征。IDC的地域集中性和中国网络拓扑结构及客户需求密切相关,因为IDC需要保障客户数据对外的网络连接顺畅。用户选择IDC资源时,网络时延是重要的考虑因素;对时延要求敏感的应用如远程服务、在线娱乐、在线支付等需求快速增长,且向头部城市靠拢,导致一线城市IDC需求强劲增长。国内网络结构中,核心节点为北京、上海、广州、沈阳、南京、武汉、成都和西安八个城市,其中北京、上海、广州为三个中心,与其他核心节点互联并负责与国际Internet互联。 复盘IDC,社交媒介改变/数据井喷有望带来需求高增。我们认为上海数字经济发展位于全国前列,沪上IDC市场空间增长一定程度代表了数字经济背景下国内IDC行业的发展。根据科智咨询统计,2021上海地区传统IDC业务市场规模达到159亿元,实现平稳增长。供给侧和需求侧的双重影响,上海地区潜在有效供给持续增加,需求平稳增长,以公有云为代表的泛互联网行业仍是上海新增需求的主要驱动力。未来几年,基于上海本地互联网企业云化进程加速、全国互联网企业在华东区域的规模化布局的这一大背景下,5G、AI等技术有望带动消费互联网进一步创新,同时随着传统产业持续数字化转型,上海市数据中心产业仍有望保持快速增长。 2021年北京地区数据中心增长同样印证了前文逻辑。2021年,北京及周边地区IDC市场最主要的需求来源为视频、电商、游戏等互联网行业,互联网行业IDC需求占比达到65.2%。我们认为北京地区需求侧的增长同样来自于社交媒介的改变。2020-2021年短视频的广泛传播一方面加大了用户流量;另一方面短视频的数据格式相较文字更为复杂,多维度计算同样加大了算力需求。 图11:上海传统IDC业务市场空间 图12:北京及周边地区IDC机柜供给快速增长 模型训练成本趋呈上升趋势。过去计算机行业假设为“数字处理会变得越来越便宜”,但考虑到不断上升的研究复杂性和竞争性,斯坦福人工智能研究所副所长克里斯托弗曼宁表示:最前沿模型的训练成本还在不断上升。 训练计算环境成本与模型大小成正比。根据马萨诸塞大学阿默斯特校区研究人员公布的研究论文显示,大模型底座以神经网络为主。而在调整神经网络体系结构以尽可能完成详尽的试验,并优化模型的过程,相关成本较高。单BERT模型的碳足迹约为1400磅二氧化碳。 我们认为,AI计算系统正在面临计算平台优化设计、复杂异构环境下计算效率、计算框架的高度并行与扩展、AI应用计算性能等挑战。算力的发展对整个计算需求所造成的挑战会变得更大,提高整个AI计算系统的效率迫在眉睫。 智算中心大势所趋。根据IDC发布《2022-2023中国人工智能计算力发展评估报告》,中国人工智能计算力继续保持快速增长,2022年智能算力规模达到268百亿亿次/秒(EFLOPS),已超过通用算力规模。 智算中心建设对软硬件均有一定要求。目前我国的智算中心基本采用了高标准建设,100P算力是起步目标,该算力大约相当于5万台高性能电脑。我们认为如果说过去传统的数据中心是“快捷酒店”,那么智算中心可以理解为“高端型酒店”,主要针对拥有AI模型计算的“高净值客户”提供数据训练支撑。而对于第三方数据中心厂家而言,智算中心的投资模式也不同于传统IDC机柜。对于传统IDC机柜,内部服务器、CPU等大多有下游客户自行购买,且应用场景也主要为云计算、简易推荐算法等。而智算中心主要针对AI大模型训练,对于BAT等大型互联网厂商而言,自行采购GPU、AI服务器带来的成本足以被模型带来的收益所覆盖; 而对于二三线互联网厂商而言,要想训练出自己的大模型不可避免需要投资如英伟达A100/A800等高性能芯片,高昂的成本或使上述小厂“望而却步”,但如通过第三方数据中心公司采购,则成本可被“嫁接”至数据中心厂商的资本开支,会随逐年折旧摊薄,二三线互联网“小模型”接入训练后同时能够带动第三方数据中心上架率的提升。 图13:中国科大瀚海20超级计算系统配置 超算中心涉及多个核心GPU芯片,有望拉动板块整体投资。以中科大瀚海20超级计算系统为例,该系统共计752个节点,含30640颗CPU核心、20块Nvidia TeslaV100GPU卡、16块NVIDIAA100TensorCoreGPU卡及60块华为Atlas AI卡,理论峰值双精度浮点计算能力达2.69Petaflop/s。 根据我们测算,超算中心有望拉动投资额近500亿元。中科大瀚海20超级计算系统总功率约39kw,相较普通机柜功率高2~4倍,属高密度机柜。假设当前第三方IDC公司所建高功率机柜以10kw功率为主,则投资额约为227亿元。 图14:智算中心投资成本 智算中心有望拉动投资额百亿元,高功率机柜10万余个。单智算中心算力约2.69Petaflop/s,根据我们上文测算,单大模型训练算力需求约280.67 Petaflop/s。 我们认为未来“大模型带小模型”将成为趋势,假设算力需求放大50倍(多家二三线互联网小厂接入大模型API训练),则总算力需求扩至14033.5Petaflop/s,此时需要智算中心约5217个(合52170个机柜)。但由于上述计算以39kw功率为基础计算,密度通常为普通高功率机柜2~4倍,取放大系数为2,则需要机柜10.4万个。 图15:未来高功率机柜需求约7.5~10.4万架 从ChatGPT所需要GPU数量测算,未来所需要高功率机柜近7.5万个。根据钛媒体,GPT 3.5完全训练需要A100芯片近3万颗,对应英伟达DGX A100服务器近3750台。考虑到英伟达DGX A100服务器单台最大功率为6.5kw,假设平均功率为4kw/台,则10kw功率机柜可搭载2.5台AI服务器。为满足3750台AI服务器,需要建设机柜1500个,假设算力需求扩至50倍,共需要高功率机柜约7.5万个。 3盈利预测与估值 3.1盈利预测假设与业务拆分 奥飞数据业务主要划分为IDC服务、系统集成项目、其他互联网综合服务和分布式光伏节能服务四大类。 1)IDC服务:数据中心是数字经济的底座,是建设数字中国不