行业要闻追踪:OpenAI确认GPT5发布时间,国内大模型进展不断。据OpenAI官方Blog,GPT5将于2023年第四季度推出。除此以外,本周多个国内厂商公布大模型相关进展,包括阿里云大模型、华为盘古模型等。国内外巨头积极布局下,AI正迎来加速发展,持续关注底层算力基础设施,核心基础设施包括服务器(浪潮信息、紫光股份、中兴通讯等),交换机(锐捷网络、菲菱科思等),光器件光模块(中际旭创、新易盛、天孚通信等);配套设施包括机电设备(科士达等),温控设备(英维克、申菱环境等),高速互联线缆及组件等。除此以外,语音助手版天猫精灵展现“压缩版”大模型在端侧应用的巨大潜力,建议关注边缘智能后续发展趋势,推荐关注智能模组(移远通信、广和通等),AIoT芯片(瑞芯微等)及相关通信芯片。 行业重点数据追踪:1)运营商数据:据工信部,截至2023年2月,5G移动电话用户达5.92亿户,占移动电话用户的34.9%;2)5G基站:截至2023年2月,5G基站总数达238.4万个;3)云计算及芯片厂商:22Q4BAT资本开支合计134亿元(同比-47%,环比-14%);22Q4海外三大云厂商及Meta资本开支合计389.34亿美元(同比+7%,环比-1%)。2023年3月,服务器芯片厂商信骅实现营收2.26亿新台币(同比-47.8%,环比+1.2%)。 行情回顾:本周通信(申万)指数上涨4.48%,沪深300指数上涨0.80%,板块表现强于大市,相对收益3.68%,在申万一级行业中排名第1名。在我们构建的通信股票池里有163家公司(不包含三大运营商),本周平均涨跌幅为5.6%,其中,光器件光模块和工业互联网板块领涨,涨幅分别为21%、11%。 投资建议:继续推荐AI基础设施投资机会 以ChatGPT为代表的AI应用正快速发展,并进行着快速迭代,有望赋能多行业多样化新型应用落地。软端的快速发展离不开硬件基础设备的保障,AI数据中心内部的各类的硬件基础设施环节有望充分受益AI行业进步带来的需求提升。除此以外,AI有望向边缘智能演进,关注端侧算力载体发展: (1)智算中心基础设施:ICT领先企业(紫光股份、浪潮信息、中兴通讯、锐捷网络、菲菱科思等),光器件光模块(中际旭创、天孚通信、新易盛等),IDC温控企业(英维克、申菱环境),IDC电源端企业(科华数据、科士达); (2)边缘智能:智能模组(移远通信、广和通等),AIoT芯片(瑞芯微等); 2023年4月份的重点推荐组合:中国移动、紫光股份、中际旭创、移远通信、申菱环境、三旺通信、科士达。 风险提示:AI发展不及预期、资本开支不及预期、宏观环境变化。 产业要闻追踪 (1)OpenAI确认GPT5发布时间,国内大模型进展不断 事件: OpenAI于近日在其官方Blog中确认ChatGPT5将于23Q4推出。据其介绍,ChatGPT 5是OpenAI开发的最先进的GPT语言模型,能通过更复杂、更细致的方式理解和生成自然语言,突破机器学习可能性的界限。 4月7日,阿里云通过官方微信公众号对旗下的超大规模语言模型“通义千问”进行官宣,并面向企业开始了邀请测试。而在此之前,知名脱口秀演员鸟鸟在其官方微博发布视频,展示了一款接入了AI语音助手版本的天猫精灵。 4月8日,华为云AI首席科学家田奇在人工智能大模型技术高峰论坛上介绍了人工智能能的发展趋势,以及华为盘古大模型的架构以及应用场景,并介绍了其在矿山、铁路、气象、医药分子等细分行业的应用。 点评: 亮点一:GPT5发布时间确认,阿里、华为大模型公布最新进展 OpenAI确认GPT5将于23Q4发布。此前OpenAI于3月26日宣布GPT4.5将于9-10月期间推出,而今日其官方Blog确认GPT5将于四季度公布。根据其官方介绍,ChatGPT5是OpenAI开发的最先进的GPT语言模型,能通过更复杂、更细致的方式理解和生成自然语言,突破机器学习可能性的界限。 图1:ChatGPT5将于2023Q4推出 国内方面,阿里、华为先后展示了旗下大模型的最新进展: 阿里方面,4月7日午后,阿里云通过官方微信公众号对旗下的超大规模语言模型进行官宣,并面向企业开始了邀请测试。而在此之前,知名脱口秀演员鸟鸟在其官方微博发布视频,展示了一款接入了AI语音助手版本的天猫精灵,通过“鸟鸟分鸟”演示了压缩版大模型在端侧应用的潜力。 图2:通义千问首页布局 图3:通义千问生成结果演示 图4:“鸟鸟分鸟”AI语音助手天猫精灵演示 华为方面,4月8日,华为云AI首席科学家田奇在人工智能大模型技术高峰论坛上介绍了人工智能能的发展趋势,以及华为盘古大模型的架构以及应用场景,并介绍了其在矿山、铁路、气象、医药分子等细分行业的应用。在此前发布的华为年报中,华为已宣布盘古矿山大模型在山东能源集团已正式商用。 图5:华为盘古大模型不同层级功能 图6:盘古CV大模型在矿山场景应用 亮点二:AI驱动智算中心发展,底层基础设施充分受益 海内外巨头积极布局AI,大模型应用离不开高算力的AI集群。ChatGPT作为一种人工智能技术驱动的自然语言处理工具,通过连接大量的语料库来训练模型,做到人机交互等场景功能,背后需要大量的算力作为支撑。根据Open AI数据,目前AI训练的算力需求呈指数级增长——每3.4个月便可翻番。 图7:AI算力需求快速增长 随着AI发展,未来超算/智算中心的占比有望进一步提升: 智能计算中心:服务于人工智能的数据计算中心,包括人工智能、机器学习、深度学习等需求,以GPU等AI训练芯片为主,为AI计算提供更大的计算规模和更快的计算速度,以提升单位时间单位能耗下的运算能力及质量为核心诉求; 超算中心:为集中放置的超级计算机(由通用或专用的高性能硬件和软件组成的,为处理复杂的数据、算法和应用等提供算力的高性能计算平台提供运行环境的建筑场所)设备提供运行环境的场所。 表1:不同类型数据中心对比 其中,核心底层基础设施包括服务器、交换机、光模块等。对于较大的AI数据中心集群,一般可多达几千台AI服务器的需求,在部署上会拆分成数个基本单元。 在英伟达AI集群模型中,一个基本单元为SuperPOD。而一个标准的SuperPOD由140台DGXA100GPU服务器、HDRInfiniBand200G网卡和170台NVIDIAQuantum QM8790交换机构建而成,其中交换机速率为200G,每个端口数为40个。 图8:英伟达SuperPOD基本结构 而英伟达AI集群的网络结构上,主要采用Infinband技术(“无限带宽”技术,简称IB)和fattree(胖树)网络拓扑结构。和传统的数据中心的区别在于,在IBfattree结构下,使用的交换机数量更多,且因为每个节点上行下行的端口数完全一致,使得该网络是是无收敛带宽的,每个端口可采用同样速率的光模块。 图9:传统数据中心网络拓扑结构 图10:Fattree网络拓扑结构 具体来看: (1)AI服务器增长提速,占比持续提升。AI服务器通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。目前针对chatgpt这种模型训练大部分选择GPU。根据IDC数据,2021年全球AI服务器市场规模为156亿美元,预计到2026年全球AI服务器市场将达到355亿美元; 2021年中国AI服务器行业市场规模为64亿美元。 图11:全球与国内AI服务器市场规模(亿美元) (2)网络设备:高速互联网络推动高速交换机需求提升。智算中心以AI训练模型为主,要求不同的节点之前有更强的资源供给弹性,是智算中心扩展性和算力提升的关键,对于网络的高带宽、超低时延、超高可靠性提出了更高的要求。而高速率端口交换机占比提升有望提振行业均价和毛利。根据IDC数据,数据中心场景中,200/400G端口出货量有望快速提升,22-26年复合增速达62%,预计2026年全球交换机端口出货量超8.7亿个,市场规模超440亿美元。 图12:高速率交换机出货量快速提升(百万个) 图13:交换机市场规模预测(亿美元) (3)光模块:光电共封装等新技术有望应用。热插拔形式下,光模块光引擎距离交换芯片很远,电信号在PCB中走线很长,在高速尤其是800G光模块等场景下,PCB走线过长造成信号劣化,形成传输瓶颈。因此光引擎逐渐靠近靠近交换芯片(OBO技术),而CPO就是把光引擎直接移到交换芯片的封装基板上,彻底让光学引擎和交换芯片的电连接距离短到极限。 图14:板上连接技术演进示意图——从铜缆连接、热插拔、OBO到CPO CPO有望在AI时代加速应用。据LightCounting预测,在2027年,CPO端口将占总800G和1.6T端口的近30%。另据CIR预测,到2027年,共封装光学的市场收入将达到54亿美元。 图15:交换芯片Roadmap 图16:CPO市场规模预测 除此以外,随着数据中心交换机通信速率提升,数据中心短距离通信所需的高速线缆发展迅速。随着AI集群、高性能计算机(HPC)的发展,数据中心所需的光传输速率不断提升。并且CLOS架构下,数据中心东西向流量将呈指数级增长,分布式存储、超融合网络等发展将推动数据中心内的高速互联需求持续增长。而伴随着大型和超大型数据中心的自建和新建,先进的IDC一体化设计大大地提升了单机柜功率容量,从而有效缩小了服务器接入的垂直布线距离,DAC的性价比优势将推动高速铜缆需求更快增长。据LightCounting预测,2023年到2027年,AOC和高速传输铜缆的年复合增长率分别为14%和25%,预计2027年市场规模均突破10亿美元。 图17:DAC和AOC市场规模预测(百万美元) 超算/智算中心的基础设施也将迎来同步升级、发展: (1)机电设备方面,超算/智算数据中心中高压直流备电比例有望进一步提升。 数据中心电力设备作为核心发动机,主要包括:1)配变电系统(包含10~20KV配电柜、变压器、);2)备用电源系统:柴油发电机组;3)UPS电源系统:(交流UPS、直流UPS、输入/输出配电柜、蓄电池组)。传统数据中心建设中,柴油发电机组、电力用户站、UPS设备分别占到总成本的23%、20%、18%。而智算/超算数据中心相较于传统的数据中心,机柜功率密度和算力等级的大幅提升,我预计采用高压直流供电的模式占比会进一步提升,对于高压直流电源采购比例有望进一步提升,单KW电源端成本占比有望优化。 表2:超算/智算中心电气技术要求 (2)温控设备:液冷技术有望成为主流。液冷散热器通过液体流动与散热器内部表面摩擦带走大量的热量而起到散热作用,与一般的风冷散热器相比,液冷能够大幅提高降温效果,目前主要分为间接式/直接式液冷技术。其中,间接液冷技术是指服务器热源与液冷剂之间没有直接接触的换热过程,主要分类有冷板式与热管式;直接液冷技术是指冷却剂与电子元器件直接接触的换热过程,主要分类有喷雾式、喷淋式、浸没式三种。 目前国内高密度的云数据中心以及智算中心主要以冷板式液冷为主,超算中心主要以浸没式液冷为主。未来,考虑到对服务器改变形态的大小以及综合成本等,我们认为在服务器热力密度为15-20KW阶段,冷板式液冷对于服务器的形态变化相对较小、冷却液环节占比较低,环保等方面有望优先采用,随着算力密度的进一步增加,浸没式液冷整体散热能力有望进一步增强,推广度有望逐步打开。 图18:浸没式液冷工作原理 图19:冷板式液冷工作原理 根据赛迪顾问的数据,以液冷数据中心对传统市场进行替换作为市场规模测算基础,结合华为、阿里巴巴和中科曙光对液冷数据中心的替换率调查,预计2025年我国液冷数据中心的市场规模将破1200亿元,2021-2025年均复合增速25%。 (此处口径为液冷对应的数据中心规模),冷板式及浸没式液冷占比分别达到59%/41%,而AI等应用场景的加速发展下,数据中心液冷产业的渗透速度有望进一步加快增长。