![]()
三星、SK海力士和美光正在加紧准备向英伟达和其他AI加速器供应商提供第四代高带宽内存(HBM4),以提升AI训练和推理速度。
高带宽内存是一种分层DRAM,直接放置在GPU旁边的桥接中介层芯片上,比与x86 CPU配套使用的插槽连接DRAM提供更大的内存容量和更高的内存带宽。HBM分为不同代次,专为特定GPU设计,每一代通常比前代提供更高的带宽和更大的容量。目前我们正处于HBM3E(扩展版)代次,专为英伟达Blackwell GPU设计,支持最多12层DRAM堆叠,提供36GB容量,每引脚9.2-9.8 Gbps数据传输速度,总带宽达1.2-1.28 TB/s。
HBM4专为英伟达Rubin GPU设计,可搭载高达288GB的HBM4内存。AMD的MI455可搭载更多内存,达432GB。JEDEC的HBM4标准支持4层、8层、12层和16层堆叠,芯片容量分别为24 Gb(3GB)或36 Gb(4GB)。每个堆叠的容量范围从12GB到64GB。HBM4基准每引脚数据传输速率为8 GB/s,支持扩展到更高水平。
英伟达去年首次发布Rubin时希望HBM4整体带宽达到13 TB/s,但现在的目标是从12层HBM4堆叠中实现22 TB/s。
这促使美光、三星和SK海力士等HBM4开发厂商测试其数据传输速率,三星不得不优化设计以在更高速度下实现良好的产量。路透社和《韩国日报》报道称,三星达到了新的速度要求,将于2月开始向英伟达出货HBM4芯片,同时也将向AMD供应HBM4芯片。
彭博社的报道有所不同,称三星接近获得英伟达认证,但尚未签署出货协议。
HBM市场领导者SK海力士已向英伟达交付HBM4样品,但尚未透露何时开始向GPU制造商出货HBM4芯片。该公司将于1月29日公布第四季度财报,三星也是如此,届时我们可能会听到更多消息。
第三家HBM4制造商美光也已向英伟达交付16层样品,并表示其2026年HBM4全部产能已售罄。
HBM5和HBM6代次可能分别采用20层和24层堆叠。
Q&A
Q1:HBM4相比HBM3E有什么提升?
A:HBM4专为英伟达Rubin GPU设计,支持最多16层堆叠,单堆叠容量可达64GB,基准每引脚数据传输速率为8 GB/s。英伟达目标从12层HBM4堆叠中实现22 TB/s带宽,远超HBM3E的1.2-1.28 TB/s。
Q2:哪些厂商在生产HBM4芯片?
A:目前三大厂商正在开发HBM4:三星、SK海力士和美光。三星据报将于2月开始向英伟达出货,SK海力士已交付样品但未透露出货时间,美光也已交付16层样品且2026年产能已售罄。
Q3:HBM4主要应用在哪些产品上?
A:HBM4主要用于AI加速器,包括英伟达Rubin GPU(可搭载288GB HBM4)和AMD MI455(可搭载432GB HBM4),用于提升AI训练和推理速度,比传统插槽连接DRAM提供更大容量和更高带宽。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.