面向海量规模与高度扩展方向转化的二级数据存储

日期: 2017-11-01 作者:Mike Matchett翻译:张瀚文 来源:TechTarget中国 英文

众所周知,闪存存储的速度不断提高,成本日益降低。它正在快速取代传统的磁盘存储 ,在核心存储中发挥重要作用,使得关键业务应用程序性能得到惊人的改善。

今天的数据中心内,现代化的核心存储阵列中配置大量闪存作为缓存、或是直接部署闪存存储层,又或者是采取全闪存的架构。以往对于闪存损耗的顾虑早已被大部分人所忘却。还出现了一些新的存储设计,例如Datrium充分利用了价格低廉的服务器端闪存。很显然,在某些方面,而非全部领域使用闪存,可以得到更佳的IT投资回报。

不过,随着几乎每个人都开始在核心存储中使用闪存,这种在核心存储上的闪存设计差异,变得微乎其微。某些时候,只要不是用在金融交易处理上,你很难感受到速度上的差异。

今天大型企业IT所面对的存储问题并非辨识哪家的闪存更快、更可靠、更具扩展性或者更加便宜,而是如何充分利用在核心存储层的投资。追求更高的性能自然会带来额外的竞争力,但从更普遍的角度来看,业务端对处理数量庞大的运营数据集合的需求迅速增长。不论是否运用闪存技术,核心存储仍然存在并且永远会存在容量规划上的挑战。

全新“大数据”商机

优化全新核心存储的驱动力促使IT人员尽可能地选用适合的二级数据存储。伴随着这个新兴的“大数据”商机,二级存储市场相应发生着巨大变化。原本仅仅以数据保护为目标的离线备份存储已经过时,难以为当前面向用户的存储服务提供日益提升的规模、速度和交互服务能力。

我们看到二级存储架构向着高度互动、持久在线模式发展的趋势。企业组织不再只是将备份、快照与归档信息储存在迟缓的近线或本质上离线的底层存储,他们发现将二级数据仍然保留在活跃状态能带来更大的收益。伴随着二级数据存储向在线模式的转变,终端使用者可以快速检索并恢复自己的数据,就像在Mac计算机上使用Apple Time Machine一样。同样,企业组织能够从陈旧的冷数据集合中获得到宝贵的信息资产,例如大数据分析、机器学习以及深层次的历史数据检索。

这听上去是否有点像是用一种便捷的方式整合了备份与归档,就是这样!数据保护备份和恢复同归档之间的差别日益缩小。用这些方式进行备份或许意味着数据的变更(例如文件的更改或增量快照),其版本管理从核心存储复制到在线的二级数据存储上。恢复也是在线和交互式复制的——即时完成所需历史版本的完整虚拟镜像,并对最终使用者保持透明。

假如通过数据保护算法确保存储空间足够大(例如通过N路复制、纠删码和高可用的元数据服务),你便能够进行更为可靠的归档。由此使得归档数据可以长期保持在线状态、即时可用,尽管其性能不及闪存存储。对于大规模核心存储闪存应用,这种在线归档功能会显著节省闪存容量。换而言之,企业全局在线数据存储空间将变成核心存储与二级存储的总和。

主流的二级存储厂商

包括Cohesity、Hedvig、Igneous Systems、Qumulo、Rubrik和Scality在内的几家供应商将其大规模可扩展存储定位在数据中心的新型辅助存储。其中的一部分产品在最初设计中可能只是用于网络化规模、面向下一代的混合云存储、大数据存储池等的应用,但是这些产品都在寻求机会,以帮助企业组织解决陈旧、复杂、狭义的数据保护的难题。

这些现代化的二级存储供应商并没有试图去取代核心存储空间,或是直接与闪存比较性能。事实上,他们在推动后端系统向公有云转换——例如让Cleversafe成为IBM的云对象存储。不过,在某些情况下,他们亦会将传统核心存储上的工作负责(如文件服务)降级到所谓的二级数据存储上。

这些较新的二级存储产品当中,许多都是围绕着核心对象存储平台构建的,例如Igneous或大规模扩展并行文件系统,例如Cohesity。有一些定位为软件定义产品,另一些则作为硬件的优化设计。虽然其部署、性能、可扩展性、限制因素以及各种预期的使用途径或许会有天壤之别,但对于二级存储而言,它们都会具备一些相似的功能,其中包括:

  • 用于在线大文件获取与读取IO的高性能;
  • 极具扩展性,能够支持数十亿,甚至万亿级别的文件与对象;
  • 融合混合存储与分层技术,甚至使用静态存储系统,例如Amazon Web Services中的Simple Storage Service and Glacier;
  • 全局在线元数据索引;端到端的全局命名空间;并在整个存储空间内实现分布式访问;
  • 内置存储分析,从而有助于容量规划、使用并实现其它功能;
  • 建立策略的自动化引擎可用于细颗粒度的增量备份、归档、保留,并实现安全与访问策略控制;
  • 支持直接在线存储协议,用于最终用户访问并支持下一代网络规模的应用程序,包括状态转变API(representational state transfer APIs)、直接SMB 共享(, direct SMB share)与NFS挂载(NFS mount)等存储对象协议;
  • 卓越的数据保护,包括使用中与静态过程中的信息加密、同步与异步的多路复制、分布式RAID和纠删码,以及高可用的元数据保护等功能;
  • 通过性能线性的横向扩展集群能力、全局在线重复数据删除、智能压缩以及自动精简配置和虚拟化克隆,实现了很高的成本效益,使得存储基础架构能够面对日益增长的挑战。

像云供应商一样思考问题

除了单纯在闪存上的投资,IT部门应当努力变成像云服务供应商那样。我们一直在为IT客户提供咨询服务,建议他们用内部服务供应商的方式思考,而非仅仅作为满足业务需求的成本中心。撇开二级存储的命名,这种全新的存储设计的确将云存储的理念带入数据中心。将其称为二级确实有所不妥。

将核心存储升级至闪存可以大幅减轻IT的负担——例如彻底消除存储性能的瓶颈——但是在核心存储上使用闪存在本质上并不会改变IT与最终用户之间的关系。而这些全新的二级存储设计正将IT转变为业务的主导者,它彻底改变了最终用户与存储进行交互的方式,满足更多数据在线业务所需,同时最大化了在闪存领域的投资。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

作者

Mike Matchett
Mike Matchett

Mike Matchett is a senior analyst and consultant at Taneja Group.

相关推荐