8月21日,SK海力士宣布,“我们已经成功开发出用于人工智能(AI)的超高性能DRAM,称为第五代HBM(HBM3E)。” 他们补充说,“为了进行验证程序,我们已经开始向客户提供样品。” 这是SK海力士首次开发用于客户端验证的第五代HBM。
SK hynix 的 HBM3E 每秒能够处理超过 1.15 TB 的数据,相当于在一秒钟内处理超过 230 部全高清电影的数据。散热性能较前代提升约10%。
生产出第四代HBM3后,SK海力士在第五代产品开发竞赛中也超越了三星电子,获得了“世界第一”的称号。分析人士认为,自2013年首次开发HBM以来,他们近10年来持续的研发投入已初见成效。
SK海力士强调,“基于我们独家量产HBM3的经验,我们成功开发了具有世界最佳性能的扩展版本HBM3E。鉴于我们丰富的HBM供应经验和生产成熟度,我们的目标是通过在明年上半年开始量产HBM3E,巩固我们在AI内存市场无与伦比的地位。”
SK海力士于8月21日推出的第五代HBM3E被誉为最新人工智能加速器的关键组件。人工智能加速器是专门用于生成人工智能所必需的大规模数据训练和推理的半导体套件。它们通过先进的封装将多个 HBM 垂直放置在图形处理单元 (GPU) 和中央处理单元 (CPU) 旁边,从而最大限度地提高数据处理性能。值得注意的是,OpenAI ChatGPT 服务中使用的 NVIDIA H100 AI 加速器采用了 SK hynix 的 HBM3 DRAM。
HBM3E 很可能会出现在 NVIDIA 将于明年下半年推出的 GH200 下一代人工智能加速器中。据了解,SK海力士已将HBM3E实际样品发送给NVIDIA进行性能测试。NVIDIA首席执行官黄仁勋在8月8日的一次活动中提到,他们将“明年开始量产搭载HBM3E的‘GH200 Grace Hopper超级芯片’”。
此外,SK海力士将Advanced MR-MUF技术应用于HBM3E,散热性能较前代产品提升约10%。由于 HBM 涉及垂直连接多个 DRAM 芯片,因此通过封装有效散热的技术至关重要。MR-MUF 工艺涉及在芯片之间注入液体保护材料并使其固化,与在每个芯片上放置薄膜材料的传统方法相比,具有冷却优势。此外,HBM3E 是向后兼容的,允许在使用 HBM3 开发的系统中应用新产品,而无需进行任何设计或结构更改。
感受到竞争压力的三星电子计划在今年下半年推出第五代HBM产品“HBM3P”,旨在与SK海力士竞争。该产品可能被命名为“Snowbolt”。他们还计划明年生产第六代 HBM。
本文转载并注明其他来源的稿件,是本着为读者传递更多信息的目的,并不意味赞同其观点或证实其内容的真实性。如有疑问,请联系695036288@qq.com。