注册

HBM成AI时代“新宠”,存储大厂加速进军抢市占

来源:全球半导体观察整理    原作者:Niki    

据韩国媒体报道,为满足日渐增长的人工智能AI市场需求,三星电子将在2023年下半年大规模量产HBM内存芯片。

报道指出,三星电子即将量产的16GB和24GB容量的HBM3存储芯片传输数据可达6.4Gbps。此外,三星电子还计划在今年下半年推出更高性能和容量的HBM3P产品。

从今年第四季度开始,三星预计将开始向北美GPU制造商供应HBM3。因此,HBM3销售额占三星DRAM总销售额份额预计将从2023年的6%扩大到2024年的18%。

近年来,AI服务器与AI芯片需求同步持续上涨。据市场研究机构TrendForce集邦咨询预估,2023年AI服务器(包含搭载GPU、FPGA、ASIC等)及AI芯片出货量将分别年增38.4%和46%。

而未来,在AI服务器出货动能进一步强劲带动下,将刺激更多的存储器用量,并同步带动HBM市场需求的提升。据集邦咨询研究显示,目前高端AI服务器GPU搭载HBM已成主流,预估2023年全球HBM需求量将年增近六成,来到2.9亿GB ,2024年将再成长三成。

从市场规模来看,当前,HBM市场主要被三大原厂所占据。以2022年的市占率来看,SK海力士占据50%的市场份额,而三星和美光则分别占据40%和10%。

尽管HBM市场目前处于起步阶段,仅占整个DRAM市场比重约1.5%,但随着人工智能时代的到来,全球云端业者逐年增加AI服务器的投入,未来HBM产品的需求亦有望快速增加。集邦咨询预计,2023-2025年,HBM市场年复合增长率有望增长至40%-45%以上。

封面图片来源:拍信网