私有云存储产品巡礼:IBM XIV存储系统(2)
时间:2018-12-13 08:01 来源:网络整理 作者:墨客科技 点击:次
整个XIV存储系统中的单个节点与其他节点通过一个内部的以太网交换机实现冗余连接。所有模块在一起形成一个网格体系结构的工作模式,因此,该系统可以提供本身具有的并行方式,其强大计算能力能够适用于很多的并行分布式计算环境。
上图为一个15模块的XIV前后视图 与其他存储产品不同的是,XIV内部的节点与节点之间还存在不同的分工,如上图所示,在一个15模块组成的XIV存储系统中,其分为6个主机接口部分和 9个数据存储部分。主机接口部分的每个模块包含处理器、缓存、12块SATA磁盘驱动器以及光纤主机接口。数据部分的每个模块中也包含处理器、缓存、12 块SATA磁盘驱动器,但不包括主机接口。所有的这些模块通过一台内嵌的以太网交换机连接在一起,该内部网络可以提供最大的带宽利用率和单一组件失效的故障接管。 从硬件配置方面来看,接口模块和数据模块的结构基本相同,但却承担不同的功能。当然每个模块采用的磁盘,缓存和处理资源不一定与数据模块一 致,XIV中接口模块的设计包括光纤通道和iSCSI接口的主机系统的连接以及远程镜像。在XIV中,最基础配置的XIV有6个模块。其中3个模块作为前 端主机模块。再扩展的话,直接升级到9个模块,其中6个模块作为主机接口模块。但之后如果需要继续扩展,其主机模块将不再扩充,扩充的只是数据模块。这样 做的好处是,避免前端端口增加时,用户需要复杂的操作配置过程。 XIV存储系统全网格设计的好处显而易见,因为每个单独的网格中都配备了计算单元和数据存储单元,用户只需简单地添加这样的网格节点到已有的XIV存储系统中,就可实现容量与性能的提升。 海量数据保护:XIV伪随机算法 海量数据时代,存储系统还面临着另外一个挑战,那就是数据保护。传统存储系统中通常采用RAID的形式来对数据进行保护,但这一方式在海量数据时代 明显有些心有余而力不足。根据英特尔在IDF大会上展示的一组数据显示,在用2TB磁盘组成的RAID 5阵列中,如果阵列中某块磁盘故障,插入新的磁盘到这个阵列中,并进行数据重建。对一个容量为2TB的磁盘进行数据重建大概需要四个小时,这还是在最高优 先级的情况下,而在实际环境中,为了不占用关键业务的CPU资源,数据重建通常处于较低优先级,那么数据重建时间就会大大延长,几天甚至几周进行数据重建 的情况都是很正常的。 这还不是重点,重点在于,磁盘年故障率的数值看似较小,但在大规模部署的时候,这个几率就会无限放大,同时出现磁盘损坏的情况并非不可能。并且,传统的RAID 5阵列只能保证阵列中的一块硬盘损坏后能够数据重建,而RAID 6也只能保证两块硬盘同时损坏后,能够对丢失数据进行重建,一旦有更多的硬盘损坏,对于企业来说,这就意味着数据永久丢失(如果没有备份的话)。所以在海量数据时代,用户迫切需要一种新的数据保护方式来应对这一难题,如惠普公司提出的网络RAID做法,而IBM XIV存储系统之中则使用的是世界上独一无二的伪随机算法来对存储数据进行保护。
XIV内部通过独特的算法,将每个文件拆分成1MB的大小,并根据伪随机的算法,将这1M的数据存储在内部任意一个网格处理单元中的任意一块磁盘 上,与此同时在另外任意一个网格中也放置一份拷贝。直至整个系统达到相当的利用率,并保证每个网格处理单元的利用率保持在差不多的水准。IBM XIV的伪随机数据分配示意如以下Flash所示: XIV通过对多种数据类型进行切割,并将切割后的数据分散存储到磁盘中,并保留副本。这样,实际上磁盘上的每份数据,在系统里面都存在一个相同的副 本。一旦某块磁盘当掉,替换上新的磁盘后,系统会自动的根据保存在其他磁盘上的数据副本,来恢复这块磁盘上原有的数据。由于这块磁盘上的数据副本,本身分 散在不同的磁盘中,因此数据恢复的过程,由多块磁盘共同完成,恢复的速度非常快,比传统的RAID5恢复速度快一倍,1TB的硬盘坏掉,仅需要约30分钟 左右的自愈时间。而且数据恢复的过程中,对前端性能的影响非常小。这也是XIV网格存储系统独特的数据保护模式的优势。 (责任编辑:admin) |
- 上一篇:恒安标准人寿:飞康CDP秒级恢复无停顿
- 下一篇:云技术应用

