本文选自2017年4月刊《存储经理人》:闪存、云位列Top数据存储选项 伴随着固态存储在主站点中逐步取代传统磁盘驱动器,我们开始渐渐认识到传统RAID阵列中所存在的些许缺陷。 与(服务器内)的内置存储相比,RAID阵列能够为所有的I/O操作提供毫秒级的延迟响应,在硬盘驱动器的访问时间需要数十毫秒时,这种响应速度完全是可以接受的;但是,当内置的非易失性存储(NVMe)固态闪存可以在100微秒内完成数据传输时,RAID阵列的性能就显得相形见绌。另一方面,故障磁盘的重建时间可能会长于阵列中另一驱动器的平均故障时间——从而造成数据丢失。虽然RAID 6可以实现两块磁盘的奇偶校验,一定程度上缓解了这一时……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
本文选自2017年4月刊《存储经理人》:闪存、云位列Top数据存储选项
伴随着固态存储在主站点中逐步取代传统磁盘驱动器,我们开始渐渐认识到传统RAID阵列中所存在的些许缺陷。
与(服务器内)的内置存储相比,RAID阵列能够为所有的I/O操作提供毫秒级的延迟响应,在硬盘驱动器的访问时间需要数十毫秒时,这种响应速度完全是可以接受的;但是,当内置的非易失性存储(NVMe)固态闪存可以在100微秒内完成数据传输时,RAID阵列的性能就显得相形见绌。另一方面,故障磁盘的重建时间可能会长于阵列中另一驱动器的平均故障时间——从而造成数据丢失。虽然RAID 6可以实现两块磁盘的奇偶校验,一定程度上缓解了这一时间问题,但单块4TB容量及以上的磁盘故障率会使得双重校验都不足以确保信息的安全性。
这些不足之处驱动着存储行业产生变革,引导我们走向超融合技术。
超融合之道
闪存的部署揭露出传统设备中存在的性能与可靠性问题,从而推动由大量慢速驱动器组成的阵列转向更加紧凑型的存储设备(storage appliance),这些设备内部用单一的控制器连接8至10块驱动器。在设备之间复制数据来确保信息完整性,而非通过设备内部的RAID。
设备小型化的好处在于将网络性能与驱动器的初始性能匹配了起来。伴随着2016年NVMe驱动器技术在单块驱动器上实现了10GBps的流速,这方面收益将得以进一步被放大。
与这项趋势一同兴起的是,存储软件供应商开始探索新的虚拟化理念,我们将其统称为软件定义存储(Software-defined storage,简称SDS),将存储服务从实际的物理存储平台中脱离出来,运行在基于通用硬件的虚拟实例池中。通过这种方式,存储作为一项服务资源更具灵活性和扩展性,与云端已经相当成熟的服务器虚拟化和资源管理调度相匹配。
在存储设备上运行虚拟化存储服务的意义在于,这些设备借助于某些商业现成品(COTS)作为控制单元。随着人们开始意识到存储控制器中存有大量备用计算能力,以及紧凑型的存储设备与传统的机架式服务器在形式和配置上几近相同,超融合技术的理念由此而生。现在,越来越多的紧凑型存储设备与机架式服务器相结合,从而降低了硬件的复杂程度,并使得存储能够更广泛的扩展。
今天的超融合系统
目前的超融合产品厂商往往使用标准的x64服务器主板与固态闪存盘组构成2U高度的机架单元,作为超融合平台。所有这些设备通过联网构筑起虚拟的存储池。存储池的创建会用到一些特定的技术,例如存储管理套件,其可跨设备运行,将存储资源呈现为虚拟的存储区域网络。
自动化的存储管理能够找到新的驱动器,使得系统扩展过程更为便捷。当某块驱动器发生故障时,软件从其它驱动器上复制数据来保持集群系统的运行,同时重构冗余结构。这些管理工具可以同时支持冗余复制和纠删码——后者我们将在后续篇章中展开讨论。
从性能角度看,任何设备内的驱动器都能提供非常高的I/O带宽。一组8个NVMe驱动器的设备可以提供80GBps或1000万IOPS。通常的单台服务器使用不了这么多带宽,可以将多余的部分进行共享。
不过,网络可能会是潜在的瓶颈。理想的网络环境中没有任何额外的延迟,我们距离这个目标并不遥远。超融合集群的理想规划是建立在高速网络的使用之上的,例如多组10或25千兆的以太网链路(甚至更快的连接)。这确实在一定程度上增加成本,但降低了数据管理的复杂性(例如不需要将关键数据存放本地),并使得所有服务器工作更有效率。
目前,许多超融合产品使用以太网远程直接内存访问(RDMAE)或InfiniBand网络,从而大幅提升吞吐量,降低了90%的系统开销,并显著减少延迟。
超融合技术洞察
紧凑型存储设备分两种类型。一种是采用“乐高式”的对象存储,这通常用于存储容量相对较小、或作为一体化远程办公平台,例如虚拟桌面基础架构(VDI);另一种在最近才出现,并在超融合技术的大趋势下显得更为有趣。
这种方式旨在满足虚拟化应用实例、存储服务以及软件定义网络(SDN)服务的需要。其处理器配置强劲——通常是具备双处理器以及庞大的DRAM。这使得在单个设备上能够运行更多的实例,尤其是在上述三项服务都完全支持Docker容器的时候。
总体而言,超融合技术的优势在于方便使用。单个硬件盒子中同时整合了服务器和存储,而且由于具备SDN 的超融合基础架构(HCI)的准系统性质,网络方面亦更具成本效益。这种方式降低了成本并简化安装,并且HCI软件往往会预先加载以节省更多的启动时间。另外,HCI通常由单一供应商提供,可以消除风险并减少企业内部人员。
所有主流的IT平台供应商都可提供HCI产品,其中大多数使用第三方虚拟SAN工具(Nexenta或Simplivity)组建集群。产品中还可能包含其他功能,例如管理和配置工具,以加强产品竞争力。目前多数超融合技术供应商都对可配置数量进行限制,目的是确保开箱即用,以及对主流技术的兼容。
总之:今天踏上超融合技术的道路已不存在特别大的风险。其成本应当低于传统“点菜式”的配置,尤其是与传统的RAID相比;另一方面市场上有许多供应商可供选择,从主流的厂商到初创企业。软件定义的趋势将在未来增加更多的服务功能,并将其应用提升至全新的层次。
采取适合的超融合基础架构
不过,在部署超融合技术时仍有需要注意的一些问题。我们已经谈到过网络绝对不是应该省钱的地方。在不久的将来,使用NVDIMM作为DRAM闪存数据的扩充或许也会变得至关重要。
随着业务发展,你会需要扩展各种HCI集群。考虑到服务器与存储技术正以数十年来最快的速度发展,可以确定的是,升级扩展时使用的设备将不同于目前的,内存和驱动器都会变得更快、容量更大。集群软件必须能够适应这种扩展,处理不同资源之间的差异。
核心的集群软件应该与供应商无关,其运行在通用的硬件之上。不过,考虑到主流的HCI设备中,Dell和Hewlett Packard Enterprise占据着主导地位,这块市场有可能长期被其锁定,特别是当全新的设备商进入该市场时。询问你的供应商是否支持多家厂商的产品集成在一起,就像是今天的云计算那样,以防被其锁定。
当然,超融合技术对于某些场景下仍显不足。具有GPU的产品仍在HCI认证的配置之外,这会影响大数据和高性能计算方面的市场需求。我们所说的HCI配置对于许多远程办公场景亦有多余之处,其添加存储池时的复杂性似乎并不必要。
不过,在虚拟桌面基础架构中部分使用HCI仍有其意义所在,这可以使得硬件采购得以统一化,允许你大量部署相同的资源,共享给传统的虚拟桌面和其它应用,同时采取通用的体系架构。
二级存储
如何处理陈旧的数据是超融合技术应用所面临的问题之一,常见的做法是将其迁移至二级存储上。你可以大批量在这类设备中增加硬盘驱动器,并采取压缩与重复数据删除等技术来增强存储能力。例如,两块10TB的硬盘驱动器可以为具备压缩功能的二级存储在单节点增加100TB的存储能力。或者你也可以选择将数据迁移至网络上的二级存储系统。这在今天通常会是对象存储。
两种选项之间,性能可能是主要的考虑因素,当然在HCI设备的空槽位中添加驱动器可能会更为廉价。
HCI的替代方案
事实上,在现代化的IT策略中,除了HCI以外仅有两种可行方法。一种是将存储完全迁移到公有云。例如借助Amazon Web Services提供的虚拟私有云——让数据的安全性和完整性方面与数据中心保持一致。
但是,大多数企业的IT部门尚未准备好全面过渡到云端,而且在企业内部部署HCI或许能实现更低的总体拥有成本。
另一种可行的方案是构建传统的服务器集群,配置存储网络。但是作为云服务,这样的架构迟早会遭遇I/O性能瓶颈,即便你使用全闪存阵列来提升网络存储性能。这种体系架构中的延迟总是高于本地的NVMe驱动器,也正是这个原因推动着全闪存阵列供应商在其产品的光纤接口上提供对NVMe的支持,即便这仍会慢于本地驱动器。
存储网络的方式也增加了管理多家供应商的复杂性,相比超融合技术往往需要更高的总体拥有成本。而将存储网络用于二级存储亦代价高昂。
HCI的演变
当前的IT有两项重要趋势,大幅度的性能提升以及更为紧凑的外观。
SSD 的性能持续地快速提升。这意味着更少数量的服务器能够完成更多操作,承担更高的工作负载。存储级内存(Storage-class memory,简称SCM)以NVDIMM的形式出现,从另一个侧面改变了游戏规则。SCM可以作为DRAM的扩充——允许服务器支持更多实例,并长期存留其中数据。在未来的18个月中,随着操作系统和编译器技术的发展,这项技术将是加速应用程序的关键所在。同样,这会使得HCI设备变得更为强大,尤其是在和Docker容器配合时其支持实例的效果倍增。
这些都是在相对短期内的改进。数年后,混合内存立方体(Hybrid-Memory Cube,简称HMC)体系架构的变化将使得DRAM和处理器更为紧密地结合起来。我们或将在2017年看到配置16GB或32GB L4缓存的处理器,而系统中余下的DRAM 将以更高速的带宽串连起来。
另外还有一些技术举措将使得所有的内存为一个HCI集群中所共享,从而将性能提升至全新的高度。
与此同时,SSD正变得越来越小,密度越来越大。3D NAND技术将在2017年全面进入市场。其结果是推动小型SSD的巨大产能,藉此我们可以预计会在小型的M.2封装内实现10TB的SSD,10块这样的SSD可以安装在一个3.5英寸驱动器槽位内。从更宏观角度上将,100TB的2.5英寸固态业已发布,尽管发货日期仍迟迟未有消息。
使用HMC方法的服务器引擎亦更为紧凑,因为处理器及相关配件被封装在一块小型模块上。总而言之,小型的驱动器和小型的服务器引擎促成了小型的系统。很有可能,在2018年1/2U的机架式服务器或单纯的高密度刀片式机箱将成为主流。
那么,你是否应当全面拥抱超融合系统呢?
简而言之,答案是肯定的。这将是总体拥有成本最低、最简单(快速)的部署方式,使你搭建起面向软件定义的基础架构,全面融入混合云,超融合技术在今天可能只是好看而已,但在未来一两年内会令人心悦诚服。
相关推荐
-
销毁SSD和保护数据的关键步骤
SSD技术正在迅速发展。随着价格下降,速度和容量继续增长,SSD在存储市场获得更强的立足点。尽管它们有着较长的 […]
-
3D NAND,UFS与e.MMC:看西部数据全新iNAND嵌入式闪存盘如何推动移动数据繁荣
智能手机对我们来说已经变得不可或缺,不管是办公还是个人娱乐,相信大多数人都会和笔者一样,感觉到自己的手机正在变 […]
-
存储经理人2017年8月刊:分解技术大揭秘
《存储经理人》2017年8月刊重点关注分解技术,分解的理念在于用大量计算机来创建出独立的资源池,然后根据需要分配适当的资源组合,从而为各个应用程序提供相应服务。另外,混合云存储将工作负载可选择的部署范围扩展到多个云,并实现令人信服的使用场景,例如异地备份、灾难恢复和云负载爆发。本期电子杂志还将讨论数据中心的硬盘和SSD共存问题。
-
为全闪存数据中心做好准备
公司应该抛弃硬盘,将数据中心完全装上闪存,供应商已经解决了旧的SSD问题,比如磨损时间和成本。