
英伟达与AI芯片初创公司Groq达成协议,斥资200亿美金获取其技术非独家许可并吸纳其核心团队。 Groq专门设计了LPU,以满足LLM对速度和内存的独特需求,LPU是一种非常快速的处理器,专为顺序处理的计算密集型任务而设计,而LLM正是顺序任务的典型代表。 LPU运行大型语言模型(LLMs)及其他主流模型的速度显著更快,在架构层面,从能 【国盛电子】LPU:关注AI推理的下半场投资机遇 英伟达与AI芯片初创公司Groq达成协议,斥资200亿美金获取其技术非独家许可并吸纳其核心团队。 Groq专门设计了LPU,以满足LLM对速度和内存的独特需求,LPU是一种非常快速的处理器,专为顺序处理的计算密集型任务而设计,而LLM正是顺序任务的典型代表。 LPU运行大型语言模型(LLMs)及其他主流模型的速度显著更快,在架构层面,从能源效率上比GPU高出多达10倍。 LPU集成了数百兆片上SRAM作为主权重存储器(而非缓存),显著降低了访问延迟。 这种设计允许计算单元全速加载权重,通过将单层拆分到多个芯片上来实现张量并行。 SRAM的核心价值在于高带宽与低延迟,与HBM(1T1C结构)不同,SRAM采用6T晶体管结构,无需周期性电荷刷新,消除了Bank冲突与页缺失导致的延迟,目前架构正从单纯增加SRAM容量转向“3D垂直堆叠+分层存储管理”。 我们认为,LPU的应用有望带动SRAM的需求提升,建议关注SRAM相关标的。 背面供电网络(BPDN)直接从晶圆下方向前沿晶体管供电,这种架构变革能够提升处理器性能、大幅降低功率损耗并提高电源效率。 AI场景的供电瞬态极其苛刻,嵌埋PCB不仅让结构更小,更重要的是提供了寄生稳定、可预测的电气环境,这对于超大电流瞬间负载的稳定性至关重要。 我们认为LPU有望采用背面供电技术,带动嵌埋PCB需求,建议关注PCB厂商及上游材料。