赖道熵是干什么的?

三副本分布式存储严重依赖网络间副本的一致性来实现数据保护,而基于网络的数据一致性,在网络出现分区故障时容易受到破坏。

分布式存储,国内存储采用开源路线居多,同质化现象严重,大多采用Ceph或GFS(Google File System)为蓝本的三副本分布式存储。但是存储系统本质上是一个要求极高的高容错系统,即使在硬件局部失效、软件BUG等极端情况下,要求数据仍然安全,业务仍然保持持续。

著名的CAP原理是分布式系统最基本、最重要的理论之一,最初由加州柏克莱计算机科学家布鲁尔教授在2000年提出猜想,两年后由麻省理工的吉尔伯特和林奇教授证明。CAP原理的核心是:当分布式系统出现网络问题(Network

这意味着,在三副本系统中,当网络出现故障时,如果要保持业务在线,即保证Availability(可用性),根据CAP原理,无论软件设计多么巧妙,运维团队多么优秀,仍然无法保证数据副本之间的一致性,最终可能只有一个副本保存了最新数据,即降级为两副本甚至单副本,成为IT系统中无形中的“危楼”:一旦出现系统掉电或硬件故障,很可能导致严重的数据丢失现象。

应对此隐患,可使用道熵的双重RAID分布式存储;双重RAID技术,是将节点内RAID数据保护技术与跨节点的网络RAID技术相结合,将网络副本或EC码建立在节点内RAID基础之上,即使在出现网络故障的情形下,依靠每个节点内的RAID数据保护,仍然可以保证数据无忧,可有效解决分布式系统中因网络故障而带来的安全隐患。可见,双重RAID既具备磁盘阵列里常见的节点内RAID功能所带来的高可靠、高稳定的特点,同时拥有分布式系统所带来的高扩展性的优势。

双重RAID由节点内RAID与跨节点网络RAID实现双重数据保护,展现出超强的故障容错能力:以10个节点的拔盘测试为例,三副本架构中,拔出第三个磁盘就会出现业务中断、数据丢失的现象;而在双重RAID架构中,即使每个节点拔出一个磁盘,系统业务仍然不受影响,数据安全无忧。

超融合平台软件是一种集成系统软件,将虚拟化计算,虚拟化存储(一般为分布式存储)、虚拟化网络(软件定义网络)和虚拟化安全等整合到单一的软件解决方案或设备中。

我要回帖

更多关于 熵之道 的文章

 

随机推荐