AI智能总结
AICPU价值有望重估。 以往CPU在AI集群中的作用往往被忽视,我们认为,AI时代将显著拉动CPU需求,并促进CPU产品本身向AI方向进化,从而带来CPU的价值重估。 场景1——AI集群中的CPU:集群控制核心+共享内存提供者。 AI时代的训练/推理计算大多在GPU或者NPU类型的芯片上运行,但在AI的全生命 海光信息:AI时代CPU价值重估——— AICPU价值有望重估。 以往CPU在AI集群中的作用往往被忽视,我们认为,AI时代将显著拉动CPU需求,并促进CPU产品本身向AI方向进化,从而带来CPU的价值重估。 场景1——AI集群中的CPU:集群控制核心+共享内存提供者。 AI时代的训练/推理计算大多在GPU或者NPU类型的芯片上运行,但在AI的全生命周期中,CPU仍然需要承担控制任务和诸多数据处理任务,尤其是数据管理和调度。 当前,随着GPU软件生态不断发展,GPU已经能够承担一部分数据处理工作,但当CPU与ASIC配合使用时,由于ASIC/NPU缺乏通用数据处理能力,往往仍然需要CPU进行数据处理,随后再交给ASIC进行后续运算。 CPU在AI集群中的另一个作用是共享内存。 当前NVIDIAGH系列、GB系列,以及以海光为代表的国产方案普遍在进行CPU共享内存方面的布局,适配国产算力的国产CPU重要性将提升。 场景2——独立运行AI的CPU:适合边缘端小模型推理,亦可用于提升云端资源利用率。 在小模型场景下,单用户情况下,根据Intel官网数据,对于7B的模型通常可以做到每秒输出50个token,13-14B的模型通常可以做到每秒输出25个token,小模型场景下CPU可用性较好。 AICPU未来发展:生态仍是重要因素,x86扮演重要角色。 1)伴随着英伟达GB200系列机柜的大量出货,全球ARM架构CPU占比上升。 2)目前来看,各大互联网厂商自研芯片当中,x86占比高,软件生态兼容仍然是一个核心考虑因素。 例如亚马逊作为自研CPU较为积极的厂商,但其在AI服务器中,仍然普遍使用x86CPU。 3)NVIDIA向Intel普通股投资50亿美元,表明NVIDIA对x86生态重视程度高。