美光宣布,已经向多个主要客户交付容量为36GB的12层堆叠HBM4样品,这一里程碑时刻扩大了美光在人工智能(AI)应用内存性能和能效方面的领导地位,为开发下一代AI平台的客户和合作伙伴提供无缝集成。美光表示,高性能内存在支持数据中心AI训练和推理工作负载不断增长的需求方面发挥着关键作用,比起以往变得更加重要。
美光的HBM4属于第六代HBM产品,采用了1ß (1-beta) DRAM工艺制造,为2048-bit接口,每个堆栈的带宽超过了2.0 TB/s,性能比上一代产品提高了60%以上,同时还内置自检(MBIST)功能。扩展的接口带来了更快速的通信,从而加速了大型语言模型和思维链推理系统的推理性能。
与美光的上一代HBM3E产品相比,这次HBM4的功率效率提高了20%以上,这种改进能以最低的功耗提供最大的数据吞吐量,从而最大限度地提高数据中心的效率。随着生成式AI用例不断增加,HBM4成为了一个重要的推动者,将促进医疗、金融和交通等不同领域的创新。
按照之前美光公布的路线图,打算在2026年至2027年之间,推出容量在36GB至48GB、12/16层垂直堆叠的HBM4产品。到了2028年还会有HBM4E,频率将进一步提升,容量将增加至48GB到64GB,速度也会有进一步的提升。
平台声明:该文观点仅代表作者本人,联合网系信息发布平台。发布者:超能网,转转请注明出处:https://www.anesthesia.org.cn/17477.html