智通财经APP获悉,广发证券发布研报称,RAG架构为大模型提供长期记忆,企业和个性化需求推动了对RAG存储需求的增长。AI推理中的RAG向量数据库存储介质正在从“内存参与检索”向“全SSD存储架构”过渡,推动高带宽、大容量SSD的需求将持续增加。建议关注产业链核心受益标的。
广发证券主要观点如下:
RAG为大模型提供“长期记忆”,企业&个性化需求推动RAG需求增长
在RAG(检索增强生成)架构中,LLM(大语言模型)在生成响应前,先向向量数据库发起查询,其中向量数据库作为连接用户查询与外部知识的关键中枢,负责高效存储、管理和检索高维向量化的知识表示,从而提升生成结果的准确性和时效性。从企业侧看,RAG正逐步渗透至在线场景(电商、Web搜索等)、离线场景(企业、法律、工程研究等)。从个人侧看,个性化RAG保留用户长期记忆、偏好与上下文信息,形成“用户级向量空间”,显著推高RAG需求增长。
AI推理RAG向量数据库推动SSD需求增长
向量数据库存储介质需承载大规模向量数据及索引结构,要求支持高吞吐和低时延,以满足高并发场景下的相似度检索需求。目前向量数据库存储介质正在从“内存参与检索”走向“全SSD存储架构”。根据《All-in-storage ANNSAlgorithms Optimize VectorDBUsability within aRAGSystem》以KIOXIAAiSAQ为例,向量、PQ量化结果及索引统一存储于SSD,10B级向量规模所需SSD容量为11.2TB,其中PQVectors占1.28TB,索引占10TB。在采用TLC/QLCSSD下,AiSAQ相较于DiskANN介质成本具备4-7倍的成本优势;此外,AiSAQ所有租户处于激活状态,租户可直接开始查询,不存在必须先从SSD加载到DRAM后才能开始查询的“冷启动”延迟,提升RAG系统的规模化扩展能力与经济可行性。
火山引擎TOSVectors开启向量存储新范式,对SSD需求提高
根据火山引擎开发者社区公众号,TOS推出Vector Bucket,该架构采用字节自研的Cloud-Native向量索引库Kiwi与多层级本地缓存协同架构(涵盖DRAM、SSD与远程对象存储)。在大规模、长周期存储和低频查询的场景下,该架构不仅满足高/低频数据的分层需求,而且显著降低企业大规模使用向量数据的门槛。TOSVector与火山引擎高性能向量数据库、火山AI agent等产品深度协同,以交互型Agent场景来看,将高频访问的记忆(如用户的核心偏好、近期的任务执行结果等)存放在向量数据库中,实现毫秒级的高频检索;将低频访问的记忆(如半年前的交互记录或历史执行结果)沉淀到TOSVector中,允许秒级延迟,以此换取更低的存储成本和更广阔的记忆空间;以处理复杂任务的Agent场景来看,TOSVectors既能承载海量的语义向量存储,又能保证长期数据的可持续积累。
风险提示
AI产业发展以及需求不及预期;AI服务器出货量不及预期,国产厂商技术和产品进展不及预期。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.