您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:科技巨头排队购买据科技媒体报道,继英伟达之后,全球多个科技巨头都 - 发现报告

科技巨头排队购买据科技媒体报道,继英伟达之后,全球多个科技巨头都

2023-07-04未知机构自***
科技巨头排队购买据科技媒体报道,继英伟达之后,全球多个科技巨头都

科技巨头排队购买 据科技媒体报道,继英伟达之后,全球多个科技巨头都在竞购SK海力士的第五代高带宽内存HBM3E。 半导体行业内部人士称,各大科技巨头已经在向SK海力士请求获取HBM3E样本,包括AMD、微软和亚马逊等等。AMD最近透露了其下一代GPUMI300X,表示它将从SK海力士和三星电子获得HBM3供应。 除英伟达和AMD之外,亚马逊和微软科技巨头排队购买 据科技媒体报道,继英伟达之后,全球多个科技巨头都在竞购SK海力士的第五代高带宽内存HBM3E。 半导体行业内部人士称,各大科技巨头已经在向SK海力士请求获取HBM3E样本,包括AMD、微软和亚马逊等等。AMD最近透露了其下一代GPUMI300X,表示它将从SK海力士和三星电子获得HBM3供应。 除英伟达和AMD之外,亚马逊和微软则是云服务领域的两大巨头,之前已引入生成式人工智能技术,并大幅追加了对于AI领域的投资。报道称,SK海力士正忙于应对客户对HBM3E样品的大量请求,但满足英伟达首先提出的样品数量要求非常紧迫。 SK海力士于2021年10月宣布成功开发出容量为16GB的HBM3DRAM,在2022年6月初即宣布量产。HBM3E是HBM3的下一代产品,SK海力士是目前世界上唯一一家能够大规模生产HBM3芯片的公司。AI服务器带火HBM HBM即为高带宽存储器,是一种基于3D堆叠工艺的DRAM内存芯片,具有更高带宽、更多I/O数量、更低功耗、更小尺寸等优点。 HBM突破了内存容量与带宽瓶颈,可以为GPU提供更快的并行数据处理速度,打破“内存墙”对算力提升的桎梏,被视为GPU存储单元理想解决方案。 AI服务器对带宽提出了更高的要求,而HBM基本是AI服务器的标配,超高的带宽让HBM成为了高性能GPU的核心组件。 今年5月,英伟达宣布推出大内存AI超级计算机DGXGH200,该产品集成最多达256个GH200超级芯片,是DGXA100的32倍。机构推测,在同等算力下,HBM存储实际增量为15.6倍。 在DRAM的整体颓势之中,HBM却在逆市增长。 据媒体报道,2023年开年后三星、SK海力士两家存储大厂HBM订单快速增加,HBM3规格DRAM价格上涨5倍。 为应对人工智能半导体需求增加,有消息称SK海力士将追加投资高带宽存储器(HBM)产线,目标将HBM产能扩大2倍。 6月28日,TrendForce集邦咨询发表研报称,目前高端AI服务器GPU搭载HBM芯片已成主流,预计2023年全球HBM需求量将增近六成,达到 2.9亿GB,2024年将再增长30%。 集邦咨询预计,目前英伟达A100、H100、AMDMI300,以及大型云服务提供商谷歌、AWS等自主研发的ASICAI服务器增长需求较为强劲,预计2023年AI服务器出货量(含GPU、FPGA、ASIC等)在120万台,年增长率近38%。 AI芯片出货量同步看涨,预计今年将增长50%。HBM未来市场规模超20亿美元 中金公司表示,随着模型的进一步复杂化,推理侧采用NvidiaA100/H100等中高端GPU是大势所趋,HBM的渗透率有望快速提升。据测算,到2025年HBM整体市场有望达到20亿美元以上。