8月8日,英伟达首席执行官黄仁勋在洛杉矶举行的SIGGRAPH 2023活动上宣布,该公司将于2024年第二季度开始推出采用下一代HBM芯片HBM3E的超级GPU GH200。通过使用 NVIDIA Interconnect 技术,将基于 ARM 的 NVIDIA Grace 中央处理单元 (CPU) 与 hopper GPU 架构相结合。
公告中一个有趣的部分是,黄仁勋通过提及 HBM3E 来强调 GPU 竞争力。目前,全球只有SK海力士和三星电子能够生产先进的HBM。HBM 是具有垂直堆叠的多个 DRAM 模块的高性能产品,用于 AI 的 GPU 中。
HBM 目前正在开发以下产品名称:第一代 (HBM)、第二代 (HBM2)、第三代 (HBM2E)、第四代 (HBM3)、第五代 (HBM3E) 和第六代 (HBM4)。它们被认为是运行高性能人工智能系统的重要存储芯片。
Nvidia解释说,虽然属于第四代的HBM3可以与高端GPU一起使用,但HBM3E适合最大限度地发挥新量产的GH200的性能。141GB HBM3E 支持 5TB/s 带宽。这是目前最流行的AI专用产品H100 GPU的1.7倍容量和1.5倍带宽。目前H100仅搭载SK海力士生产的HBM3。
据报道,GH200 中的 HBM3E 将由 SK 海力士和三星电子提供。三星和 SK 海力士将 HBM 产能提高了一倍多,以满足全球对 HBM 不断增长的需求,其中包括 Nvidia 的需求。
TrendForce预测,SK海力士和三星的下一代产品,包括HBM3和HBM3E(包括HBM3P),将在明年主导相关芯片市场。对于这些芯片,三星和SK海力士将于明年第一季度发布HBM3E样品,并于2024年下半年开始量产。
SK海力士计划于明年上半年开始量产第五代HBM3E,并于2026年开始量产第六代HBM4。三星将从今年第四季度开始出货HBM3和第五代HBM3P。该公司尚未宣布 HBM4 何时上市。
HBM3E 采用 10 纳米第五代先进工艺制成。近日,美国半导体公司美光宣布将开发自己的HBM3E,加入SK海力士、三星主导的HBM市场,引起业内人士关注。不过,业内人士预测,美光要想追上该领域的领先者SK海力士和三星,将是一个真正的挑战。
本文转载并注明其他来源的稿件,是本着为读者传递更多信息的目的,并不意味赞同其观点或证实其内容的真实性。如有疑问,请联系695036288@qq.com。