
20160810超融合解决方案介绍v1.pdf
7页1 / 7超融合解决方案介绍首先需要厘清概念,谈超融合,就得先从融合架构谈起融合架构又称为集成系统, 通过整机柜集成和预配置实现快速部署,但仍然采用传统的服务器、网络、 存储三层架构典型的融合架构方案包括VCE 的 Vblock 、NetApp 的 FlexPod、Oracle 的 Exadata,以及 Huawei 的 FusionCube 和 H3C的UIS 等可以注意到融合架构在形态上体现为一个机柜或刀箱,里面集成了服务器、网络、存储节点,安装了虚拟化软件而超融合架构则是基于通用的服务器硬件,借助虚拟化和分布式技术, 融合计算、存储、虚拟化与一体,不再需要专门的SAN 存储相比融合架构来说,超融合摆脱了整机柜 / 刀箱集成的束缚,也不再受限于传统的三层架构,更具有弹性其次理解每家产品的理念、定位和技术渊源超融合概念在今天能够得到大家的热议,一是随着硬件性能密度的提升, 网络互联互通的便利,软件智能逐渐走向成熟,超融合也是IT 基础设施演进的一个必然方向;二则是对传统架构的颠覆式创新,在IT 资源的分配和管理上相比2 / 7传统架构更有效率(尤其是集中式存储模式),因此对传统存储的冲击也最大。
这也恰恰说明为何超融合理念的倡导者会是Nutanix 、 SimpliVity、 Pivot3 、Maxta 以及 VMware 这些在企业级(存储) 市场并不显赫的厂商 而对于 EMC 、 IBM、NetApp 这些存储巨头来说,超融合并不是一个“讨人喜欢”的概念,谁让他们“真的有一头牛”呢?Nutanix 、SimpliVity等超融合初创厂商,均成立于2009 年,借鉴 Google等互联网数据中心架构, 通过软件定义的方式, 将服务器的计算和存储资源聚合,在虚拟化层面上实现池化和统一管理,实现虚拟化环境的新型部署模式他们的确是这个市场最彻底的“革命者”VMware 在 2014年发布的 VSAN , 也是专为优化虚拟环境而设计的存储解决方案,通过与 vSphere 的深度耦合, 将软件定义数据中心延伸到存储一层(在此前VMware通过 VAAI、VASA 、VVOL 帮助专业存储厂商更好的支持虚拟化应用,现在决定甩开膀子自己上阵了) ,并巩固 VMware在虚拟化数据中心的优势而 HP 、Huawei作为传统企业级的老兵,有成熟的软件定义存储产品,如HP基于 LeftHand 的 StorVirtual、 Huawei从 FusionCube拆分出来的 FusionStorage ,通过与Hypervisor集成或作为其堆栈的一部分而摇身一变成为时髦的“超融合”,但从规格、指标来看,与“原生”的超融合架构仍然存在差距。
在国内比较有影响力的公有云服务提供商青云,也推出了超融合一体机, 通过预集成 QingCloud 虚拟化平台、云平台管理软件、SDN 网络和分布式存储,实现企业云平台的落地部署另外一家厂商深信服, 本行是做网络安全的, 也加入了超融合的战场, 坦率的说在狭义的超融合架构 (服务器 +存储+虚拟化)上平淡无奇, 但所画即所得的部署模式和网络层的深度集成却让人印象深刻,更适合 SMB 客户从网络安全到基础架构的一揽子交付需求3 / 7回到联想自身,没有自己的存储核心技术这一短板,在过去只能依赖于OEM和技术合作弥补,随着超融合的发展,也无需再苦恼了,超融合不需要存储,但一定要部署在服务器上 而服务器则是联想企业级最强的地方,与 Nutanix 合作推出的超融合 HX系列,基于最好的x86 服务器 System x,目标成为超融合市场的标杆产品选择超融合方案可以遵循哪几个标准?这么多考量因素,一个“好”的超融合方案究竟该如何判别?可以从以下五个方面去衡量:依次为适用性、兼容性、数据效率、连续性及可扩展性1适用性 VM-Centric超融合既然是为虚拟化环境部署而服务,那么整个架构设计是否以虚拟机为核心,会对使用体验会有直接影响,在这方面做得越好, 也就越能体现该方案的优势。
VM-Centric可以通俗的理解为站在为虚拟机服务的角度上,以让虚拟机运行的更有效率为目标, Top-Down进行产品设计比如说,在传统的架构中, 存储对上层的主机提供存储卷服务,对于在主机上部署的虚拟机来说, 其数据具体在存储上如何分布,是不可知的, 当我们在使用快照、复制等数据保护功能时,我们是对存储卷进行操作而在超融合架构中, 与虚拟机相关的数据分布, 会有“本地化”的概念, 也就是虚拟机的数据会优先存放在本地节点上,避免跨节点访问造成的延迟和资源4 / 7占用在进行快照、复制等操作时,同样也是围绕虚拟机这个维度来进行的,而不是传统架构中是对虚拟机所在的存储卷进行快照和复制业界的超融合方案, 如之前所述, 大致可以分为两类, 一种是“原生”超融合,如 Nutanix 、SimpliVity、Maxta,另一类则是软件定义存储升级,如HP的StorVirtual、Huawei的 FusionStorage 对比这些产品的指标可以看出, 前者在“ VM - Centric ”方面一般做的比较全面,也会将其作为宣传的重点, 而后者在“ VM - Centric ”方面着墨较少 这很好理解,毕竟前者是针对虚拟化场景进行的专门设计,而后者更多是将现有的软件定义存储增加了一个虚拟化层。
举一个例子说明这两种架构的不同就是:前者是一辆轿车, 设计目的就是为了驾驶者的乐趣和乘坐者的舒适,而后者更像一辆皮卡, 设计目的是为了载货和通过性虽然皮卡对乘坐者的舒适度也是有保证的,但总归不如轿车舒服; 当然单纯讨论载货能力,轿车却也是不如皮卡的2兼容性 Hypervisor 支持目前流行 Hypervisor有 VMware vSphere 、Microsoft Hyper-V、KVM ,绝大多数的超融合方案都支持VMware ,毕竟 VMware 是虚拟化界事实上的标准EVO:RAIL/VxRAIL仅支持 VMware ,毕竟这是自己的亲儿子, 是用来巩固自己市场地位的法宝; SimpliVity、Maxta 虽然现在仅支持 VMware ,但有明确的计划要支持 Hyper-V,原因是继续绑定VMware并不能保证自己的生存,而Hyper-V和 KVM 的市场增长比较快 (据不权威数据, VMware的市场占有率是 55% , Hyper-V已经增加到 27% ) 对 Hypervisor支持最全的则是Nutanix ,VMware/Hyper-V/KVM (自己开发的 AHV )都支持; Huawei 的 FusionStorage 则除了支持 VMware和 KVM 外,自己也有基于 Xen开发的 FusionSphere 虚拟化平台。
当然还有一些厂商因为产品定位的原因,仅支持自己基于 KVM 开发的虚拟化平台,如深信服、 SmartX如果客户本身就是一个多Hypervisor平台混合部署的环境,兼容多个Hypervisor带来的好处就很明显了,这个时候客户也会有虚拟机在Hypervisor间转换的功能需求5 / 7个人的一点浅见:仅支持VMware的超融合方案是没有前途的,因为你首先就无法和 vSphere+VSAN 竞争,当然 VxRail 除外(亲儿子嘛);如果仅支持KVM的话,也会导致适用范围被大大缩窄同样,对于客户来说,除非你是VMware的铁杆粉丝,或者你的业务必须用到 vSphere 的一些高级功能, 否则没有必要为了一棵大树而放弃森林,尤其是对于大量部署 Windows的客户, Hyper-V 就是一个不错的选择,而在Linux 平台,免费的 KVM 也发展的比较成熟3效率 I/O 优化和数据效率在这一方面,各家超融合方案的区别体现在:数据本地化的设计,以及数据写入到节点时的切片策略:基于已有的 SDS方案 Bottom-Up 的超融合方案, 在数据本地化设计上, 并没有原生的超融合架构做的深入闪存、 SSD ,仅用于缓存还是缓存+存储,仅支持SSD 还是可以扩展 PCI-e 闪存卡:很多人都有疑问, 为什么传统架构需要七八台服务器,加中端存储才能支撑的应用,三四个超融合节点就可以替代?其实有个原因就是超融合架构对闪存/SSD 的配置和使用远远超过传统存储。
通常,一个节点配置的SSD 会是800GB~1600GB,甚至可以扩展到更多虽然传统存储也可以配置很多SSD ,但相应的成本也会急剧提升有的超融合方案如VSAN ,SSD 仅可以作为缓存使用, 并不能存储数据, 而有的方案如 Nutanix 则既可以做缓存, 也可以存储数据; 大部分超融合方案只能使用 SSD ,而华为的 FusionStorage 则可以使用 PCI-e 闪存卡数据保护,采用多副本还是RAID ,是否支持纠删码:相比传统存储的 RAID技术,在分布式系统中,多副本技术是最常见的数据保护方案,为了缓解副本技术带来的存储空间的占用,对于冷数据采用纠删码方式进行保护,也是通用方案但可以看到,仍然有一些超融合方案, 在节点内部使用RAID进行数据保护,如 SimpliVity使用硬件 RAID卡将节点内的硬盘创建成RAID6 ,如 Maxta 则使用6 / 7内置的 ZFS文件系统,利用 RAIDZ技术对节点内的硬盘进行保护, 最多可以允许三块硬盘的损坏这些方案显然各有优劣,仅使用副本,在冗余度上并没有节点内RAID+ 节点间副本来的可靠,但空间利用率前者占优在这里,也可以注意到不同超融合方案也存在两个流派,一种是上层软件直接操作硬盘,完全软件定义来实现;另一种,在底层的存储层,或者使用传统的RAID ,或者采用单机文件系统如ZFS来实现。
前者的好处是可以获得完全的控制权和定制能力,后者的好处是利用现有的技术,实现简单数据效率,是否支持重删、压缩、精简,还是后处理,软件处理还是硬件加速,单个节点还是可以跨节点全局处理?实际上,数据效率和数据保护是一脉相承的,以 SimpliVity为例,在重删、压缩上使用了 PCI-e 加速卡来实现, 所有的数据在写入时都会经过重删处理,因为是硬件协处理,所以不会占用CPU资源,避免对业务的影响而Maxta 使用ZFS ,则是利用 ZFS本身的重删功能,通过软件实现,从而也导致了对大内存的需求Nutanix 的实现则很有趣,对于写入到内存和SSD的数据,可以执行重删处理,对于写入到HDD 的冷数据,则可以用Map reduce 的方式跨节点进行全局重删,与上述节点内部的重删相比,重删效果无疑会更好些VSAN 原来在 6.1 版本是不支持重删的,但6.2 版本已经添加了重删可能,可惜只能对全闪存进行,混合配置时,硬盘上的数据是无法进行重删的4备份、容灾业务连续性如上所述,在快照时, 有的方案是基于虚拟机来进行,有的方案仍然是基于存储卷来进行,显然前者使用更为便利在虚拟化环境进行备份时,相比传统的备份方案,Avamar和 Veeam是两个值得考虑的方案,尤其是对EMC有偏爱的客户, Avamar 是个很不错的虚拟化环境重删备份解决方案, 除了价格较贵之外; 而 Veeam作为轻量级、 纯软件的解决方案,也得到了很多客户的青睐,但似乎Veeam并不支持重删。
而在复制、容灾中,传统架构更多是基于Array-Level 、通过存储卷的复制7 / 7来实现,现在的超融合方案大多都宣称自己支持容灾,但没有看到太多的资料和案例,但有两点,超融合方案的容灾,第一大多是基于VM-Level 来进行,尤其是与 Hypervisor配合起来更为便利,第二就是还不能满足RTO/RPO=0 的双活要求,如果用户是要求双活的环境,坦率的说, 使用 VPLEX 或者 SVC这种传统的方案更为合适些超融合在通常的数据复制、异地容灾(不严格要求双活)的环境中,还是可用的不过我相信,随着超融合技术的发展,客户接受程度的提升,超融合在容灾方面替代传统架构也只是时间的问题。
