带宽超百G、文件超百PB、IOPS超十万的并行存储系统

龙骧® 并行存储可有效解决存储阵列无法解决的容量扩展能力,同时也有效的解决存储阵列的带宽扩展能力,真正达到容量和带宽的同步扩充。

龙骧® 并行存储为客户提供的性价比更高,更能保护投资(TCO)的存储系统,其使用通用的存储服务器作为存储节点,支持不同品牌、不同型号、不同时期的硬件进行混搭,十年不落伍。

龙骧® 并行存储为客户提供更加简单的维护方案,相比存储阵列的的安装维护步骤和知识准备,龙骧® 并行存储的管理员只需要懂得TCP/IP协议、操作系统中通用安装步骤、存储节点增加和删除等技能即可,无需繁杂劳动。

与SAN方案对比

指标 SAN方案 龙骧® 并行存储
共享性能 FC SAN设备本身不支持共享,需要共享文件系统支持,如StorNext,或EMC自己的MPFS,性能普遍很低,支持客户端数量也很有限。 基于高效的并行存储技术,系统聚合带宽随着存储规模扩大而近线性增长;单个数据对象可以被多个客户端访问保持性能不变。
扩展性 仅有Symmtrix DMX3/4支持在线扩展Raid阵列,其余产品扩容需要停机,重新规划空间分配;容量越大,性能越低 动态无缝的扩展,扩展之后性能得到提高,容量越大,性能越高
可靠性 硬件HA备份设计;数据Raid5数据保护;Raid组内两块硬盘损坏,或者单台存储设备失效,会造成数据丢失 硬件系统集群化;数据冗余度可调;可以允许多块磁盘同时损坏,甚至单台存储设备失效也不会影响数据的完整性
故障恢复时间 系统重构需要中断业务,时间很长 在线系统快速重构和数据恢复,速度是SAN的数倍,对性能几乎没有影响
完备性 SAN设备本身只提供基本存储空间,共享、镜像、安全都需要另购EMC或第三方软件,要实现一个完整的存储解决方案,需要一个“系统集成”的过程 系统提供存储、共享、自修复、负载均衡、安全、镜像等完整的功能,无需另购软件
维护升级费用 1、厂家私有光纤协议,需要专人学习、负责维护2、厂家专用磁盘,价格十分昂贵;3、增加客户端需要收费昂贵 通用的TCP/IP协议,任何网络维护人员都能承担维护任务;系统自恢复,接近零维护;维护升级成本低

比较得知,SAN方案依靠存储阵列的纵向扩展扩充容量,但是I/O能力不能同时扩展,而龙骧® 并行存储系统则完全避免这个问题的出现。

与Hadoop方案对比

指标 Hadoop方案 龙骧® 并行存储
开发语言 Java应用程序级别 C内核级模块
定位 处理行应用 通用大规模文件共享存储
应用接口 Java api,适用于一次写多次读的应用,同一时间只能有一位写用户,不支持软、硬连接 Posix标准文件系统接口
文件类型优化 大文件 大、小文件
文件数量支持 百万致千万级(白皮书公布) 千亿级,现有案例中超过300亿文件数量
数据迁移 不支持(当因服务器容量写满后进行扩容时无法利用起存储系统整体聚合带宽) 支持(按需迁移数据,所有存储服务器容量负载均衡,可以充分利用存储整体带宽)
名字节点(MDS) 单台,存在单点故障 集群架构(最大可扩展到128台)

分析得知,较Hadoop方案,龙骧® 并行存储系统的应用接口更丰富,文件适应能力更强,数据迁移更方便,并且不存在单点故障。

与Lustre方案对比

指标 Lustre方案 龙骧® 并行存储
聚合带宽 上百GB/s 上百GB/s
文件数量支持 1亿 千亿,实际案例值300亿
元数据服务器 Active-Standby 2台服务器+SAN(为达到高可用效果需要共享存储,如SAN) Active-Active,最大支持128台服务器+内置硬盘
存储服务器构成 配置1:IO服务器+SAN(Failover功能)配置2:存储服务器,如SUN X4500 服务器+内置硬盘或直连盘阵(任何类型的磁盘)
可靠性方法 磁盘:依靠硬件RAID保护磁盘失效服务:当后端硬件用SAN,IO服务器之间failover;如使用存储节点,任何存储节点宕机会影响服务连续性 磁盘与服务连续性:通过使用文件副本策略,消除磁盘、存储节点、盘阵的单点故障
扩展性 难以支持在线扩展,没有数据迁移功能,扩容后数据分配不均 支持在线动态扩展,扩展后可以数据迁移,重新平均数据分布(不停应用)
支持平台 Linux Linux、windows、MacOS

分析得知,较Lustre方案,龙骧® 并行存储系统的文件数据量更多,系统可靠性更强,并且支持不停机的数据迁移和扩展。