AI智能总结
Table_Summary0] 随着GPU能耗的不断攀升,单卡配套的DrMOS和多相控制器的价值量呈现出显著的增长趋势。在AI服务器领域,高算力需求导致GPU功耗大幅提升,以英伟达的H100芯片为例,其单颗功耗较高,对电源供应方案的要求也随之提高。在PC供电方面,小模型本地部署的兴起将带动具备独立显卡的高配置游戏本电脑的销量增长。 由于游戏本的能耗是办公本的数倍,其配套的DrMOS和多相控制器的价值量也相应是办公本的数倍。上述趋势直接推动了单卡配套的DrMOS和多相控制器价值量的持续增长,这一趋势为相关企业带来了广阔的市场空间和发展机遇。推荐标的:杰华特、晶丰明源。 随着AI芯片等高性能计算芯片的发展,其能耗日益攀升。以英伟达H100芯片为例 , 其热设计功耗高达700瓦,远超英特尔Skylake/Cascade Lake系列CPU的不足200瓦。未来芯片为承载更高计算密度,能耗需求将进一步提升,导致电力传输与转换过程中的损耗大幅跃升,且损耗增幅远超功耗增长比例。鉴于电力成本在数据中心运营成本中占据大头,降低电力损耗对于优化总体拥有成本至关重要,促使从机架层级到芯片层级的供电网络架构被重新规划与设计,以攻克高耗能计算任务所衍生的电力难题。 企业纷纷从12V供电转向48V供电以降低整体电阻损耗。以240W、工作电压1.2伏的AMD CPU和700瓦、工作电压0.8伏的英伟达GPU为例,从12伏输入降至芯片所需电压时,电流大幅增加,电阻损耗呈指数级飙升,而从12伏提升至48伏,所需电流减为四分之一,损耗随之降低16倍。谷歌于2016年提出48V架构,48V架构可以有效提升效率,降低损耗。针对第一阶段降压,英伟达DGX服务器采用中间总线转换器模块,GB200服务器改用配电板模块实现降压。针对第二阶段降压,通常采用电压调节模块(VRM),将12V输入电压转换为适配SoC运行所需电压。 多相控制器与DrMOS的组合已成为第二阶段最主流的供电方案,AI渗透率提升驱动相关电源芯片价值量提升。DrMOS核心壁垒在BCD工艺,该工艺充分发挥了Bipolar驱动能力、CMOS高集成度和低功耗、DMOS高压大电流通流能力的优势。BCD未形成统一工艺标准,各厂家将自己研发的BCD工艺视为核心竞争力之一。在价值量方面:①服务器供电,DrMOS +多相在不同类型服务器上的价值量存在明显差异,通用服务器中单台电源管理芯片价值量约80美元,AI服务器中单台多相电源芯片价值量相较于通用服务器有数倍提升,随着AI服务器渗透率持续上升,相关供电芯片价值量上升。 ②PC供电,大模型本地部署促使PC硬件升级,功耗成倍增长,供电芯片价值量亦成倍增长,高配置PC出货占比有望持续上升。 风险提示。竞争格局恶化;GPU供电架构变化。 表1:本报告覆盖公司估值表(截止2025年3月28日收盘价) 1.AI芯片功耗持续上升 1.1.能耗攀升与供电压力 AI芯片能耗日益攀升,供电网络架构重要性凸显。英伟达H100芯片热设计功耗(TDP)高达700瓦,与之相比,全球数据中心广泛部署的英特尔Skylake/Cascade Lake系列CPU,热设计功耗尚不足200瓦。展望未来,下一代芯片为承载更高的计算密度,能耗需求将进一步提升。以英伟达(NVIDIA)为例,新一代的GB200架构中,NVL36机柜功率密度为72kW。 伴随功耗上扬,诸多棘手挑战纷至沓来。其中尤为突出的是高功耗会致使电力传输与转换过程中的损耗大幅跃升,且损耗的增幅远超功耗增长比例。鉴于电力成本在数据中心运营成本中占据大头,降低电力损耗对于优化总体拥有成本举足轻重。有鉴于此,当下从机架层级到芯片层级的供电网络架构正在被重新规划与设计,力求攻克人工智能训练及推理等这类高耗能计算任务所衍生的电力难题。 表2:英伟达不同芯片架构对应参数表 表3:英伟达不同规格服务器架构对应参数表 2.供电方案的演进 计算与存储芯片采用直流电供电,由电压调节模块(VRMs)把控输出电压,确保输出至芯片的电力参数匹配芯片需求。在电力系统中,电网以交流电形式承载并传输电力,其电压幅值可高达数十万伏特。然而,计算芯片与存储芯片作为现代电子设备的核心算力与数据存储载体,所适配的电力为稳定、纯净且呈低电压特性直流电。过高的电压输入会致使芯片内部精密且脆弱的电路结构因过载而遭受不可逆的损坏,而过低的电压则无法驱动芯片电路实现正常的逻辑切换与信号传导。因此在电力适配链路中,变压器承担着初次电压变换职能,依据电磁感应原理将电网高压交流电转换为适配后续环节的中间电压等级;电源供应单元(PSUs)则进一步整合、净化电源,为后续的精细调压做准备;最终,电压调节模块(VRMs)精准把控输出电压,确保输送至芯片的电力参数精准匹配芯片需求。 图1:供电的12V方案与48V方案 2.1.从12V到48V:效率突破 SoC供电电压降低引发电流增大、电阻损耗剧增等效率问题,促使企业从传统12V供电转向48V供电网络,并通过靠近负载降压以降低整体电阻损耗。随着未来架构与工艺技术的演进,SoC供电电压持续走低,为维持功率恒定,电流需依电压下降倍数相应增大。以240W、工作电压1.2伏的AMDCPU为例,从12伏输入降至芯片所需的1.2伏(降压10倍),电流从12伏时的20安攀升至1.2伏时的200安(增加10倍);700瓦、工作电压0.8伏的英伟达GPU,若将12伏输入降至0.8伏(降压15倍),电流会从12伏时的60安激增至0.8伏时的875安(增加15倍),相较于耗电量少的CPU,GPU电流高出许多,由公式可知,电流越大电阻损耗越大,降至0.8伏时,电流增大15倍,电阻损耗更是呈指数级飙升至225倍,凸显出近几代数据中心芯片的效率损耗已成大患,且随着工艺缩减、电压继续降低,以及先进封装技术使芯片封装变大、耗电量剧增,情况愈发严峻。长期以来,PSU多以12伏直流电为标准,以往功率低时,效率损失微乎其微,如今低电压SoC对高功率需求渐长,反倒使效率遭受双重打击,相对廉价且常见的12伏组件优势不再。从12伏提升至48伏,所需电流减为四分之一,损耗随之降低16倍,这便是诸多公司转向48伏供电网络的缘由,虽说最终仍要降压至1伏左右,但将48伏电压尽可能靠近SoC处降压,走线长度缩短,电阻损耗减小,进而降低整体电阻损耗。 图2:谷歌于2016年首次提出48V架构 图3:48v架构可以有效提升效率,降低损耗 两阶段配电方案相较于现有的数据中心配电模式,在效率、可扩展性以及成本控制上优势尽显。谷歌的48V方案虽然有效解决了损耗和效率问题,却在提出初期面临了缺乏下游适配方案的问题。具体而言,就是缺少将48伏精准降至板载负载点(POL),以满足处理器、内存条及其他专用集成电路供电需求的有效方式。在此背景下,两阶段配电方案崭露头角。两阶段配电方案相较于现有的数据中心配电模式,在效率、可扩展性以及成本控制上优势尽显,既能巧妙化解不同负载对电压、电流差异化需求带来的配电难题,又能满足电路板对高效能、小尺寸元件的严苛要求,为优化数据中心电源架构,实现性能、成本与可扩展性的全方位跃升筑牢根基。 图4:服务器的两阶段供电方案 2.2.48V至12V:高效降压 第一阶段:48伏直流电输入各计算托架(compute tray)后,首要任务是精准降压至12伏,以满足后续电子元件工作电压要求。该降压环节有两种主流应用模块。英伟达DGX服务器长期采用中间总线转换器(intermediate busconverter)模块实现48伏到12伏转换。传统DGX服务器每个计算托盘均匀配备8个IBC模块,单个模块功率约1千瓦,与1张通用并行图形处理器(SXM模块,即GPGPU)精准对应供电,保障其稳定运行。随着技术与服务器性能升级,英伟达GB200服务器改用配电板(power distribution board)模块降压,GB200服务器每个计算托盘内集成8千瓦PDB模块,由两个4千瓦直流-直流转换器组成,协同将48伏直流电高效稳定转换为12伏,为元件供电。 图5:GB200中的PDB模块 第一阶段到第二阶段的链接:配电板从机架级母线获取48伏直流电,并将其降压至适用于比安卡(Bianca)板的12伏直流电。在CPU和GPU各自的电压调节模块(VRM)周围设有4个快速锁定12伏直流电源连接器和4个快速锁定接地(GND)电源连接器。这些12伏和接地电源连接器将连接至计算托架的配电板(PDB)。配电板将48伏直流电精准降至适配比安卡板运行的12伏直流电,传输到电压调节模块的电源连接器。 图6:GB200的两阶段供电方案 2.3.12V至SoC:精准供电 第二阶段:电压调节模块(VRM)将12伏输入电压转换为适配SoC运行所需电压。在常规的硬件架构布局中,VRM通常被安置于承载芯片的印刷电路板(PCB)之上,以实现对芯片供电的有效管控。就现代VRM的内部构造而言,其主要由三个核心部分协同构成:电容、电感以及功率级(power stage)。其中,电容用于存储及缓冲电能,接收输入电能后能以稳定速率释放,平抑输送至处理器的电力波动,保障供电稳定连续。电感则凭借自身特性抑制电流突变,抵抗电流尖峰脉冲,防止对处理器造成不可逆损坏,护航处理器安全稳定运行。功率级作为VRM架构中的重中之重,肩负着核心的电压转换。以常见的供电场景为例,接入12伏的输入电压后,功率级将依据处理器类型启动相应的转换机制。对于中央处理器(CPU)而言,鉴于其运行特性与功耗需求,传统上所需的供电电压范围通常处于1.2伏-1.8伏区间;而在面向GPU、FPGA、ASIC或是人工智能加速器等对电压有着特殊要求的高性能芯片时,功率级则需将输入电压转换至0.8伏至1.0伏的适配区间。 图7:简化的电压调节模块 3.多相控制器+DrMOS:SoC供电主流方案 3.1.多相Buck电源架构优势 多相控制器与DrMOS的组合已成为第二阶段最主流的供电方案。这种方案通过多相电源的架构,能够有效满足SoC、CPU、GPU等芯片对大电流、高效率和快速瞬态响应的需求。多相Buck电源包含控制器和DrMOS,是一种多路交错并联的同步Buck拓扑,每相Buck对应的半桥MOSFET可由包含驱动和温度/电流检测的DrMOS代替。由一个控制器采集反馈的电压、电流、温度/错误等信号,并发出各PWM波实现功率的闭环控制,提高了电源的功率密度,还在同等功率下有效降低了系统的发热量。控制器可通过特定协议的通信接口和信号指示I/O与系统上位机或负载处理器进行信号交互。 图8:最主流的SoC供电方案为多相控制器+Drmos DrMOS本质上是一种采用外部脉宽调制控制器且为降压配置的电压调节模块。与传统的降压式DC-DC转换器不同的是,DrMOS将MOSFET驱动器与功率FET直接集成在芯片上。按照英特尔的规范,在现代应用中,这些芯片组的封装大多固定为5mm×5mm,这使得电压调节模块能够被放置在距离负载更近的位置。这两个功率级部件的集成以及与负载的接近,减少了寄生元件和传导损耗,使得在优化的多相拓扑结构中,效率可提升至95%以上。在工作原理上,外部脉冲宽度调制控制器产生特定占空比的脉冲信号,该信号被传输至DrMOS内部的MOSFET驱动器,MOSFET驱动器依据此信号精准地控制功率FET的导通和关断时间。当功率FET导通时,电流从输入电源流向负载,使负载电压上升;当功率FET关断时,负载通过续流回路放电,负载电压下降。通过不断调整PWM信号的占空比,持续调节功率FET的工作状态,从而实现对负载电压的精确调控,确保为负载提供稳定且符合要求的供电。 图9:DrMOS将MOSFET驱动器与功率FET直接集成在芯片上 图10:在优化的多相拓扑结构中,效率可提升至95%以上 3.2.核心壁垒在BCD工艺 DrMOS核心壁垒在BCD工艺。BCD工艺是1986年由ST首次推出的一种单晶片集成工艺技术,该技术在同一芯片上制作双极管