【热点速读】
1、佰维存储:预计1-2月净利润同比增长9-10倍
2、AMD CEO:服务器CPU需求“远超”预期,供应目前趋紧
3、最高涨400美元!苹果发布新款MacBook,全系售价上调
4、美光推出面向数据中心的256GB SOCAMM2
5、SKT与Panesia共同开发基于 CXL 的 AI 数据中心架构
1、佰维存储:预计1-2月净利润同比增长9-10倍
佰维存储披露业绩预告。经初步核算,2026年1-2月预计实现营业收入40亿元至45亿元,同比增长340.00%至395.00%;实现归属于母公司所有者的净利润15亿元至18亿元,同比增加 921.77%至 1086.13%;预计归属于母公司所有者的扣除非经常性损益的净利润13.5亿元至16亿元,同比增加836.65%至973.07%。
本期业绩变化的主要原因是公司显著受益于高度景气的存储周期,AI算力与国产替代驱动DRAM/NAND价格持续上涨,行业供不应求。同时,为提高公司产品在AI时代的市场竞争力,公司持续加大芯片设计、解决方案、先进封测及测试设备等领域的投入力度。
2、AMD CEO:服务器CPU需求“远超”预期,供应目前趋紧
据外媒报道,AMD CEO苏姿丰近日表示,过去几个月,AI计算工作负载中的 CPU 与 GPU 比例发生了显著变化。这种趋势在客户层面已有所体现,近日Meta与AMD和NVIDIA签署了CPU协议,这表明计算领域正在摆脱对GPU的单一依赖。
在供应链方面,苏姿丰坦承,目前AI相关的CPU供应吃紧,客户订单的突然激增使得供应链几乎没有时间进行调整,AMD正在与合作伙伴紧密合作,以缓解现有的瓶颈,并预计未来一年产能将有所提升。
针对存储价格上涨,苏姿丰表示,消费级产品使用的DDR4 与DDR5 价格攀升,正影响整体系统定价,尤其对PC市场带来压力。她预估,今年下半年市场波动可能趋缓,但仍须密切关注存储产业动态。
3、最高涨400美元!苹果发布新款MacBook,全系售价上调
苹果发布新一代MacBook Air和MacBook Pro,在性能、AI处理能力和存储配置上进行全面升级,并上调全系列售价。
新款MacBook Air的起步存储空间从512GB起,较前代翻倍,并首次支持最高4TB的存储配置。其固态硬盘的读写速度相比上一代也提升了2倍。
新款MacBook Pro则搭载了全新的M5 Pro和M5 Max芯片。这两款芯片均采用18核中央处理器设计,包含6个“超级核心”和12个新的高性能核心,并针对AI任务进行了优化,使得专业应用的性能最高提升了30%。该系列笔记本的起步存储也从512GB翻倍至1TB。
由于存储芯片供应紧张以及硬件升级带来的成本压力,苹果上调了所有新款MacBook的售价。
具体来看,MacBook Air系列中,13英寸机型的起售价从999美元提高至1099美元,15英寸机型则从1199美元涨至1299美元。
MacBook Pro系列的涨幅更大。搭载M5 Pro芯片的14英寸机型起售价从1999美元上涨到2199美元,16英寸机型则从2499美元涨至2699美元。
在搭载高端M5 Max芯片的机型中,14英寸版本的起售价达到了3599美元,而16英寸版本则从3499美元大幅上涨至3899美元,涨幅高达400美元,约合11.5%。
4、美光推出面向数据中心的256GB SOCAMM2
美光宣布率先出样单模组256GB的SOCAMM2内存条,这是当前全球容量最高的服务器用低功耗DRAM(LPDRAM)模组,专为AI数据中心和高性能计算应用设计。
该产品采用32Gb LPDDR5x DRAM Die,容量相比前代192GB模组增加三分之一。借助该模组,8通道服务器CPU单颗内存容量可达2TB,能够处理更大的上下文窗口和复杂的推理工作负载,满足AI大模型对内存容量和带宽的严苛需求。
在功耗和空间占用方面,SOCAMM2展现出显著优势:功耗仅为传统RDIMM的三分之一,物理占用面积也仅为三分之一,有效提升了机架密度并降低了总体拥有成本。模块尺寸为14x90mm,支持液体冷却服务器架构,兼具可维护性和可扩展性。
性能表现上,美光内部测试显示,在统一内存架构中用于KV缓存卸载时,256GB SOCAMM2可将长上下文大语言模型推理的首个令牌生成时间提升2.3倍以上(测试使用Llama3 70B模型,上下文长度50万,16并发用户)。在独立CPU应用中,LPDRAM在高性能计算工作负载下的每瓦性能是主流内存模组的三倍以上。
5、SKT与Panesia共同开发基于 CXL 的 AI 数据中心架构
据韩媒报道,SKT与Panesia签署战略合作伙伴关系,共同开发“基于 CXL 的下一代AI数据中心架构”。
为了最大限度地提升大规模人工智能服务的性能,全球大型科技公司正投入巨资大规模生产高性能GPU。SK Telecom和Panesia达成共识,将打破这种无限扩展GPU的模式,并实施一项根本性的结构创新,以更高效地利用现有的计算资源。
目前,人工智能数据中心通常将CPU、GPU和内存按固定比例捆绑在一起构建服务器,然后通过网络连接。随着人工智能模型规模的增长,特定资源的短缺会导致不必要的设备扩容,从而造成严重的效率低下。
为了克服这一难题,这两家公司提出了一种新一代架构,该架构能够按类型完全分离并灵活组合计算资源。这种架构通过基于CXL的交换矩阵在机架级别连接资源,并将它们作为一个单一的集成系统运行。这使得系统能够动态地仅为AI工作负载分配必要的资源,从而避免不必要的设备浪费并最大限度地提高成本效益。
CFMS|MemoryS 2026
3月27日,CFMS|MemoryS 2026与您再度相约深圳前海JW万豪酒店,以“穿越周期,释放价值”为主题,汇聚存储原厂、终端应用及生态伙伴,共同探讨如何充分释放存储技术的应用潜能与商业价值,破解增长困局,构建AI时代的高效产业新生态。
报名通道现已开启,可通过峰会官网(
https://www.memorys.com/)或“闪存市场”APP进行报名。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.