![]()
2026年3月3日,美光宣布,该公司已正式向客户出货业界最高容量的256GB SOCAMM2低功耗内存,这款产品采用业界首款单片32Gb LPDDR5X芯片打造。
随着AI训练、推理、Agentic AI(智能体AI)以及通用计算的深度融合,市场对内存的需求正变得日益严苛,且这一需求正深刻重塑数据中心的系统架构。现代AI工作负载需高效处理海量模型参数、超长上下文窗口以及持久化键值(KV)缓存,同时核心计算在数据密度、并发度及内存占用等维度也在持续突破。在这些场景下,内存的容量、带宽效率、延迟表现及功耗水平,已成为决定系统性能、可扩展性与总体拥有成本(TCO)的核心制约因素。
![]()
LPDRAM(低功耗DRAM)凭借其在容量、功耗、延迟及带宽效率上的独特优势,正快速成为AI服务器与高性能计算(HPC)服务器的关键内存解决方案,尤其适配功耗与热管理要求日益严苛的数据中心环境。目前,美光正与NVIDIA展开紧密合作,携手设计能够满足先进AI基础设施需求的下一代内存解决方案。
在此行业背景下,美光256GB SOCAMM2内存凭借技术创新,展现出以下四大核心优势:
在容量方面,该产品相较前代最高容量192GB SOCAMM2提升约三分之一,单颗8通道CPU可借助其实现2TB LPDRAM容量,进而支持更长的上下文窗口与更复杂的AI推理任务。
![]()
在功耗和体积方面,与等效RDIMM内存相比,SOCAMM2的功耗仅为前者的三分之一,占用空间也同步缩小至三分之一,进而显著提升服务器机架密度,有效降低数据中心总体拥有成本。
在性能方面,在统一内存架构中,当用于KV缓存卸载时,该内存可将长上下文、实时大语言模型(LLM)推理的首token生成时间缩短超过2.3倍。在独立CPU应用场景中,LPDRAM的每瓦性能较主流内存模块提升超过3倍³,尤其适用于高性能计算类工作负载。
在可扩展性方面,SOCAMM2采用模块化设计架构,不仅便于日常维护,还支持液冷服务器设计,同时为未来AI与核心计算内存需求的持续增长预留了充足的扩展空间。
![]()
美光云内存业务部高级副总裁兼总经理Raj Narasimhan表示:
“美光的256GB SOCAMM2模块,为AI和高性能计算领域提供了业界最具功耗效率的CPU直连内存方案。本次产品发布充分展现了我们在内存技术与封装领域的领先优势,成功打造出业界最高容量、最低功耗、最小体积的模块化内存产品。凭借在数据中心低功耗内存领域的持续创新与技术积累,我们率先实现了32Gb单片LPDRAM芯片的量产,助力行业加速向更高效率、更大容量的系统架构转型。”
![]()
综上所述,美光256GB SOCAMM2低功耗内存的正式出货,不仅是其在内存技术与封装领域领先实力的有力佐证,更精准契合了AI与高性能计算领域对内存容量、功耗、性能及可扩展性的严苛需求。
通过容量提升、功耗优化、体积缩减及性能升级,有效突破了数据中心系统架构的核心制约,降低了总体拥有成本,同时依托与英伟达的深度合作及模块化设计,为未来AI与核心计算的持续升级预留了充足空间,推动行业向更高效、更具扩展性的内存架构转型,为AI技术的规模化应用与高性能计算的突破发展注入新动力。(完)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.