DeepSeek推出Engram架构,旨在提升Transformer模型效率,通过动态划分高带宽内存(HBM)用于推理(75%)和静态查找(25%),解决重复信息访问的低效问题,相当于为模型提供快速“备忘单”。该框架不仅提升知识检索能力,还在推理、数学和代码任务中表现突出,使模型提前约7层达到相近推理深度(混合专家模型需12层,Engram模型需5层),显著增强思考深度。
核心价值在于无需按比例增加GPU显存/HBM容量即可扩展模型规模,提升开发与部署的投资回报率(ROI)。该架构有望引发AI开发者对GPU硬件性能优化的关注,对英伟达(NVDA)构成增量利好,包括降低大型模型训练成本、改善模型ROI、拓展新AI用例。对内存领域而言,Engram架构为模型能力扩展提供了非线性增加HBM需求的路径,凸显高速、本地、读取密集型存储(如企业级固态硬盘)的重要性。实际影响需待DeepSeek V4发布后显现,预计于2026年2月中旬推出。