华为要在3月20日于深圳国际会展中心办一场不一样的数据存储峰会——不是单纯的产品展示,而是冲着AI全流程的“数据痛点”来的。
从语料准备、模型训练到推理落地,每一步都有对应的存储解决方案,直接把过去“重算力、轻存储”的行业短板补上了。
这次的新品里,最受关注的是OceanStor A800 AI长记忆一体机——专门解决大模型推理时的“幻觉、响应慢、记忆丢”问题。
它集成了知识库、KV Cache加速和记忆库,用UCM统一缓存管理技术把数据分级存到HBM、DRAM、SSD里,能支持PB级的上下文,首字生成时延直接降90%,算力还能省一半。
比如之前大模型聊两句就“忘事”,现在它能记住更多上下文,回答也更准更快。
还有针对训练场景的新一代OceanStor Dorado全闪存阵列,性能强到能支持百路数据并发读取,单柜容量1.5PB,4K随机读IOPS高达98K,时延低至105微秒——这意味着GPU不用等数据,训练时长能缩短30%以上。
另外还有eKitStor Xtreme 116P企业级SSD,PCIe 5.0 QLC规格,单盘容量61.44TB,顺序读速13.5GB/s,用全闪替代HDD后,性能提升2.4倍,空间还能省一半。
更厉害的是“灵衢”高速互联系统,自研协议把内存、SSD、DPU池化,最大内存池48TB,访问延迟百纳秒级,直接打通算力和存储的“孤岛”。
![]()
这些新品背后的技术突破,其实是把存储和算力真正“拧成了一股绳”。比如UCM统一缓存技术,让最活跃的数据在HBM里,次活跃的在DRAM,冷数据在SSD,首token延迟缩90%,上下文记忆扩10倍,吞吐率提22倍;外置KV Cache缓存池突破了HBM容量限制,推理效率直接指数级上升;语料处理用多模态无损解析+Token级编码,筛选效率翻3倍。
顺着这条线,产业链上的公司也跟着受益。江波龙是华为AI-SSD核心供应商,占35%的需求,产品直接适配UCM架构,A800和Dorado的订单确定性最高;朗科科技做昇腾服务器的认证SSD,还深度参与CXL内存池化方案;国科微的GK2302系列主控芯片适配高密SSD;深南电路供应高密度PCB和封装基板——这些公司相当于“近水楼台”,能直接吃到新品放量的红利。
对行业来说,这次发布的意义远不止“出了几款新品”。过去高端存储市场被海外厂商占着,AI发展又总被“数据存不下、传不快”卡脖子,华为这次把芯片、框架、存储全链路打通,相当于给国产AI基础设施补了最关键的一块板。
现在东数西算在推,智算中心越建越多,AI存储的需求正以20%以上的增速涨,华为的新品刚好接住了这个需求——不管是大企业训练大模型,还是中小企业用AI,这套存储方案都能覆盖,直接推动行业往“高效+自主”的方向走。
你觉得华为这次的AI存储新品,能帮你解决哪些实际问题?国产存储替代的速度会不会因此加快?欢迎聊聊你的看法。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.