注册

存储器厂聚焦CXL存储器扩充器产品,以突破AI/ML 服务器 DRAM硬件限制|TrendForce集邦咨询

来源:集邦咨询       

TrendForce集邦咨询:存储器厂聚焦CXL存储器扩充器产品,以突破AI/ML 服务器 DRAM硬件限制

据TrendForce集邦咨询最新服务器相关报告指出,CXL(Compute Express Link)原是希望能够整合各种xPU之间的性能,进而优化AI与HPC所需要的硬件成本,并突破原先的硬件限制。CXL的支援仍是以CPU为源头去考虑,但由于可支援CXL功能的服务器CPU Intel Sapphire Rapids与AMD Genoa现阶段仅支援至CXL 1.1规格,而该规格可先实现的产品则是CXL存储器扩充(CXL Memory Expander)。因此,TrendForce认为,在各种CXL相关产品内,CXL存储器扩充将成为前驱产品,其产品也与DRAM最为相关。

CXL存储器池化功能助攻,AI与HPC可望突破硬件限制,并带动服务器整机DRAM用量

不过,目前CXL 1.1对DRAM来讲,仅为存储器扩充的实践,要到CXL 2.0才会实现存储器池化(memory pooling)。以现阶段而言,以双插槽CPU服务器整机的平均RDIMM使用量约为10-12条(最多为16条),意即RDIMM插槽与通道数尚未全数使用,故以短期而言,一般的computing 服务器仍可凭借升级原有的RDIMM,而仅有需要AI与HPC的应用才会有CXL需求。TrendForce集邦咨询研判,CXL存储器扩充器的用量对于DRAM整体市场的影响度有限,短期内是用以优化HPC的性能而产生的产品。

但在现有的应用下,服务器整机上的DRAM在运行中仍会有闲置而未被使用的容量,这也使得数据中心业者要支付多余的DRAM成本。以长期而言,随着更多元化及更复杂性的应用,服务器整机的DRAM平均搭载容量会呈现逐年增长的趋势,但未来若实践CXL存储器池化的情境下,可使得xPU内的存储器资源可有效被运用。TrendForce集邦咨询认为,CXL存储器池化功能将会收敛买方采购的RDIMM模块的需求用量,使得后续年对年间的服务器 DRAM单机搭载容量增速趋缓。

CXL联盟最终希望通过该界面使得各装置的资源有效运用,进而突破AI与HPC的硬件瓶颈。在CXL的协助下,AI与HPC发展随着模型复杂度的增加,将会助力相关机种的出货量。因此,由这个观点来看,CXL会带动服务器整机的DRAM(亦即合并RDIMM与CXL存储器扩充器计算)平均搭载容量;但以服务器上DRAM用量的年成长速度而言,则会因为CXL可有效率地使用整机DRAM,而使成长率趋缓。

而会大量需要CXL功能的买方以高阶运算机种为主,因此云端服务供应商会是主要的用户。TrendForce集邦咨询亦观察到部分OEM对其HPC运算客户出货的机种,也有需要大容量DRAM扩充之需求,同样将为该产品的潜在采用者。

Montage、Marvell、Microchip营收有望受CXL崛起再攀升

目前原厂开发的CXL存储器扩充器使用的是DDR5,不过现阶段仍受PCIe 5.0接口速度局限,释出速度仅略等同于DDR4。未来一旦CPU支援到PCIe 6.0亦或是更高的规格,则足以使DDR5发挥完整的速度。以CXL存储器扩充器结构来看,除了DRAM外,需搭配一颗CXL控制器((CXL controller)),其厂商有Montage、Marvell与Microchip等,故CXL的崛起不但能直接带动控制器供应商的营收外,也不排除未来可能出现类似模组厂亦或是云端服务供应商自研的模式,配套控制器与DRAM后而生产CXL存储器扩充器。

综上所述,现阶段服务器性能停滞可望因CXL的发展获改善,将有效提高DRAM在服务器上的使用,免于闲置成本的增加。而未来CXL2.0规范将可改变现有的硬件瓶颈,并在存储器池化的协助下,CXL将可以发挥更大优势。而随着更多元化及更复杂性的应用,HPC与AI等高强度运算对于xPU仰赖更胜于以往。在存储器池化的共享下,模型的设计能摆脱硬件瓶颈,持续往更复杂的架构建设。此外,CXL导入将随着未来功能强度而普及化,尤其在云端业务大规模导入在产业中,此规范更能优化服务器之间的沟通,因CXL建立彼此间沟通的高速互连性,两者交互有助于扩展服务器平行间运算力应用与优化总体拥有成本(Total Cost of Ownership,TCO)。