近日,美光宣布已开始批量生产HBM3E解决方案。美光HBM3E的引脚速度超过9.2Gb/s,可提供超过1.2TB/s的内存带宽,与竞争产品相比,功耗降低约30%。
美光24GB 8-High HBM3E,允许数据中心无缝扩展其人工智能应用程序,该产品将成为NVIDIA H200 Tensor Core GPU的一部分,该GPU将于2024年第二季度开始发货。
美光通过36GB 12-High HBM3E样品扩大了其领先地位,与竞争解决方案相比,该产品预计将提供超过1.2TB/s的性能和卓越的能效。
此外,美光将在英伟达3月18日召开的全球人工智能大会上分享更多有关人工智能内存产品组合和路线图的信息。
封面图片来源:拍信网
微信
精彩资讯扫码关注
新浪
成为我们的小粉丝
领英
成为我们的小粉丝
RSS
实时更新科技资讯
NAND FLASH ( 2024/12/10 18:12:57 )
DRAM ( 2024/12/10 18:12:57 )