美光宣布已开始批量生产其HBM3E解决方案,其首款24GB 8H HBM3E产品将会用于NVIDIA H200 GPU,将于2024年第二季度开始发货。这一里程碑使美光处于行业的最前沿,以HBM3E行业领先的性能和能效为人工智能(AI)解决方案提供支持。后续美光还将发布36GB 12H HBM3E产品,带来更大容量的选择。
随着对AI的需求持续激增,对内存解决方案的需求与不断扩展的工作负载保持同步至关重要。美光的HBM3E解决方案拥有卓越的性能,速度大于9.2Gb/s,可提供超过1.2TB/s的内存带宽,为AI加速器、超级计算机和数据中心提供闪电般的数据访问。同时功耗降低了~30%,以最低的功耗提供最大的吞吐量,处于行业领先地位。拥有24GB大容量,使数据中心能够无缝扩展其AI应用程序。无论是训练大规模神经网络还是加速推理任务,美光的解决方案都能提供必要的内存带宽。
美光科技执行副总裁兼首席商务官Sumit Sadana表示:“美光凭借HBM3E里程碑实现了三重成就:上市时间领先、一流的行业性能和差异化的能效特性。AI工作负载严重依赖内存带宽和容量,而美光已做好充分准备,通过我们行业领先的HBM3E和HBM4路线图,以及我们面向AI应用的完整DRAM和NAND解决方案组合,支持未来AI的显着增长。”
去年7月美光就宣布推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3E(HBM3 Gen2),采用了其1β(1-beta)工艺制造,性能相比目前出货的HBM3解决方案提高了50%,每瓦性能是前几代产品的2.5倍,功耗比竞争对手SK海力士和三星的同类产品低了30%。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.