在 AI、大数据与云原生全面爆发的当下,大模型训练/推理、特征工程、向量检索等 AI 工作负载 正在把基础设施的性能门槛一再推高。核心数据库、虚拟化平台以及实时分析等传统关键业务,对底层存储也提出了“既要顶住高并发,又要服务 AI 工作负载”的双重要求。
XSKY 自推出 XSEA(XSKY eXtreme Shared-Everything Architecture,星海架构)之初,就将其定位为“为 AI 准备的高性能存储架构”,在同一套架构中同时支撑传统关键业务与新一代 AI 场景。
近期,基于 XSEA 的全闪分布式块存储产品 XEBS-XINFINI 在实际项目环境中完成新一轮性能测试:单卷 4K 随机读性能峰值达到 410.9 万 IOPS,带宽 15.7 GiB/s,时延约 370 微秒,再次刷新内部纪录,为企业自建 AI 与数据平台提供了更强劲的存储底座。
![]()
从 310 万到 410 万
单卷性能再上一个台阶
在块存储领域,多数厂商更习惯用“集群总 IOPS”、“整体带宽”等指标做宣传,真正把单卷性能做到极致并给出清晰公开数据的并不多。而对于承载核心数据库、账务系统、实时分析引擎等关键业务的用户来说,一块卷能否在高并发压力下稳住性能,往往比“整个集群能跑多快”更关键。
从当前全球头部厂商公开的单卷 IOPS 数据对比来看,星辰天合 XEBS-XINFINI 在同一维度上依然保持优势。
![]()
在此之前,XEBS-XINFINI 单卷 4K 随机读性能已经实测达到310 万 IOPS。随着本次项目侧硬件平台规格提升,在保持同一套软件架构的前提下,单卷 4K 随机读性能进一步抬升到410.9 万 IOPS,实现超过三成的跃升。
这意味着,在不增加卷数量、不改变业务架构的前提下,单个数据库或虚拟机即可获得更高的 I/O 吞吐能力,为业务峰值时刻预留出更加充足的性能空间。
fio 基准测试:极致指标一览
![]()
测试环境
测试结果:
为保证测试结果的可重复性与客观性,本次性能验证采用业内通用的 fio 工具进行基准测试,核心配置如下:
测试工具:fio 3.28
测试对象:1TiB 单卷
测试方式:CPU 亲和与多队列参数按最佳实践配置
在此基础上,对典型块存储负载进行了全面验证,核心结果如下(单卷):
![]()
![]()
这些指标覆盖了从小随机到大块顺序、从纯读到混合读写的典型企业级负载场景,充分体现了 XEBS-XINFINI 在单卷 IOPS、带宽与时延三方面的综合优势。
极致性能背后的技术实力
单卷 410 万 IOPS 的背后,不是简单“堆料”,而是星辰天合在架构层的系统性创新。XEBS-XINFINI 采用全新的eXtreme Shared-Everything Architecture(XSEA,星海架构),配合端到端NVMe数据通路与单层闪存介质设计,在把单卷性能拉到极致的同时,依然能够提供超高得盘率和可靠性。
![]()
Shared-Everything,全共享架构撑起单卷极限性能
星海架构采用 Shared-Everything 全共享模型,集群任意节点都可访问所有 NVMe 盘的数据与元数据。这样单卷 I/O 能调动整集群算力和带宽,性能不再被“本地盘、本地控制器”限制,高并发下也更易做到稳定低时延。
正是这种“所有节点为同一份数据服务”的全共享能力,让 XEBS-XINFINI 能在单卷维度上持续冲击并刷新性能上限。
端到端NVMe,高速通路拉满每一次 I/O
从主机侧的 NVMe-oF,到节点内部对 NVMe SSD 的统一管理,整个数据通路保持在高效的 NVMe 协议栈中,减少协议转换和上下文切换。配合轮询、NUMA 亲和等优化,让小 I/O、高并发场景也能跑出微秒级时延和百万级 IOPS。
单层闪存介质 +EC与压缩,高性能同时收获高得盘率
XEBS-XINFINI 采用单层全闪设计,以统一的 TLC NVMe SSD 同时承担缓存与数据盘角色,降低介质成本。在此之上通过大比例 EC 和在线压缩,将容量利用率拉到极致,在保持高性能的同时,实现远高于传统架构的得盘率,为大规模训练数据集等存储提供更优的 TCO。
值得一提的是,XSEA 并非仅为块存储设计。作为 XSKY 新一代高性能引擎,这套 “共享、低时延” 的架构基因已贯穿于 AIMesh 系列产品中,确保在多模态 AI 训练、大模型推理等场景下,同样具备行业领先的性能表现。
架构先行
让性能随着硬件自然进化
XEBS-XINFINI 的性能提升,并不是一次性的“实验室冲刺”,而是从产品发布之初就被写在架构里的能力。
在 2023 年底产品正式发布时,行业内 100Gb 网络尚未大规模普及,但星飞已经将 100Gb 视作未来客户的主流配置,按“下一代网络”标准完成了架构设计与性能打磨。也正因为此:
在早期测试中,我们在 100Gb 网络环境下即可跑出单卷 310 万 IOPS,为后续演进打下基线;
随着部分客户开始部署 200Gb 网络,在不改变业务架构、不更换存储产品的前提下,仅通过按最佳实践完成接入配置,XEBS-XINFINI 就能把新增的网络与主机算力自然转化为单卷性能提升,将 IOPS 拉升至 410.9 万;
同一套 Shared-Everything + 端到端 NVMe 架构,已经为更高速网卡、更高规格 CPU 与新一代 NVMe SSD 预留了空间,后续硬件每迭代一代,系统都能继续释放潜在的单卷与集群性能。
换句话说,XEBS-XINFINI 并不是为某一次测试而生,而是为多代硬件演进而设计,今天在 100Gb 上跑得足够快,明天在 200Gb、 400Gb、甚至更高速网络上,可以顺势再上一个量级。
让每一份关键数据
都拥有“专属高速通道”
单卷性能的提升,带给客户的并不仅仅是一组更好看的测试数字,而是实实在在的业务价值:
核心数据库更稳
单库即可获得超 400 万 IOPS 的承载能力,在早晚高峰、促销大促、结算集中期等高压时段有效降低排队时延和抖动风险。
虚拟化与云平台更从容
当一块卷可以支撑更多高并发虚拟机/容器实例,资源规划更加灵活,业务不必为追求性能而人为拆分卷、复杂分片。
实时分析与 AI 业务更高效
在日志分析、实时风控、训练数据回放等场景中,高 IOPS 与高带宽并存,保证数据“喂得上去、算得下来”。
架构更简单,TCO 更可控
高性能单卷意味着可以在更少的卷、更简单的拓扑下满足业务指标,降低管理复杂度,也减少卷拆分与迁移带来的维护成本。
![]()
持续打磨
为数据时代提供“性能天花板”级存储底座
此次 XEBS-XINFINI 在实际项目环境下实现单卷 410.9 万 IOPS 的里程碑突破,是星辰天合在全闪分布式存储领域的一次重要阶段性成果,也是 XSEA 星海架构在 AI 时代可扩展性的直接体现。
面向未来,随着企业在大模型训练、本地 AI 平台、智能应用创新上的持续投入,AI 基础设施对存储的要求只会越来越高:更大的数据集、更高并发的在线服务、更敏捷的资源交付。星辰天合将围绕更高网络速率、更大规模集群、更复杂真实负载与 AI 场景持续优化,力争在单卷与集群综合性能上不断刷新新高。
我们相信,以 XSEA 星海架构为核心的全闪产品家族,将成为企业自建 AI 与数据平台时的坚实选择,为新一代数据密集型和 AI 驱动型业务,提供真正面向未来的“性能天花板级”存储底座。
说明:以上为星辰天合 XEBS-XINFINI 在指定测试环境下基于 fio 工具得到的实测数据。实际生产环境性能会因业务模型、配置策略和网络条件等因素有所差异。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.