第1部分:仅使用无缓存的iSCSI共享存储

第一个配置是传统的2节点StarWind HyperConverged Appliance的iSCSI无缓存超融合集群,扩展为12节点集群,按照计算采用英特尔® Xeon® Platinum 8268处理器和内存,由Mellanox ConnectX-5互联提供的英特尔® Optane™ SSD DC P4800X系列存储容量。无缓存的12节点HCA集群可提供670万IOPS,是理论上1320万IOPS的51%。这是在纯生产配置中的突破性性能(只使用iSCSI而不使用RDMA进行客户端访问)。主干网在iSER上运行,没有使用其他专有技术。

第2部分:回写缓存+ iSCSI共享存储

在第2部分,我们建立了全NVMe集群,每台服务器都加载了英特尔Optane NVMe,配置为回写缓存。全NVMe 12节点HCA集群提供了 2688.3万IOPS,性能为理论的2640万IOPS的101.5%. 这是回写缓存在生产配置方面的突破性性能。

第3部分:Linux SPDK/DPDK目标+StarWind NVMe-oF Initiator

对于最后的第3阶段,使用SPDK NVMe目标虚拟机和具有存储互连功能的StarWind NVMe-oF Initiator配置了相同的HCI群集。 在此NVMe-oF方案中,全NVMe 12节点群集可提供208.7万IOPS,达到了理论性能2640万IOPS中的84%.

使用与用于12节点HCI群集技术相同的任何管理程序,都可以获得类似的性能结果:无缓存的iSCSI,回写缓存和由StarWind Virtual SAN支持的iSCSI共享存储,以及与具有存储互连功能的StarWind NVMe-oF Initiator的SPDK / DPDK目标。