恢复去重后的数据

日期: 2010-08-19 作者:Lauren Whitehouse翻译:张强 来源:TechTarget中国 英文

当进行恢复去重后的数据时,其性能主要取决于备份软件、网络带宽以及磁盘类型这三方面的因素。 ——Lauren Whitehouse   重复数据删除技术所带来的优势是显著的。它允许备份数据在磁盘上存放更长的时间,或者能够将用户环境中基于磁盘的备份策略应用于其他层级的应用上。不管是任何一种策略的实施,即使是大规模数据存储在磁带上的情况,恢复去重数据所耗费的时间都会极大程度的被改善。

  通过重复数据删除技术降低了存储空间容量,同样也降低了网络负载。根据重复数据删除操作执行的位置不同,通过LAN、SAN或者WAN传输的数据量也会有所不同,这样在企业部署远程办公室备份和复制站点数据保护的时候能更为有效……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

当进行恢复去重后的数据时,其性能主要取决于备份软件、网络带宽以及磁盘类型这三方面的因素。

——Lauren Whitehouse

  重复数据删除技术所带来的优势是显著的。它允许备份数据在磁盘上存放更长的时间,或者能够将用户环境中基于磁盘的备份策略应用于其他层级的应用上。不管是任何一种策略的实施,即使是大规模数据存储在磁带上的情况,恢复去重数据所耗费的时间都会极大程度的被改善。

  通过重复数据删除技术降低了存储空间容量,同样也降低了网络负载。根据重复数据删除操作执行的位置不同,通过LAN、SAN或者WAN传输的数据量也会有所不同,这样在企业部署远程办公室备份和复制站点数据保护的时候能更为有效。

  在备份的重复数据删除过程中,一直有不少关注点或者经销商的营销策略;特别是,应该在什么时候,什么地方,如何以及重复数据删除会在多大程度上影响数据的写入。然而,这些关注点中并没有太多有关说明重复数据删除技术会如何影响数据恢复过程的内容,尤其是如何能快速将备份的数据恢复。

  在数据恢复的过程中,被请求的数据可能并不存放在磁盘的连续数据块上,这对没有做过去重操作的备份可能也是一样的。因为随着备份的数据过期,存储空间被释放出来,这样可能会出现一些碎片,这也是增加恢复所需要时间的一个因素。同样的道理可以运用于去重后的数据上,因为唯一的数据以及指向那份唯一数据的指针可能存放的方式就是非连续性的,这也会降低恢复操作的性能。

  一些提供重复数据删除特性的备份软件或者存储产品经销商们预测了这些和数据恢复相关的问题,然后优化了它们的产品来填补磁盘碎片造成的性能问题。少数的一些解决方案,比如来自ExaGrid系统以及Sepaton公司的解决方案可能能够将一份最新的备份保存为相应产品原有的格式,从而使得在恢复最佳被保护数据的时候能更快一些,而其他的一些解决方案则需要基于指针存在的时间,几天、几周或者几个月重构数据。

  通过重复数据删除技术降低了存储空间容量,同样也降低了网络负载。

  其他的一些解决方案在备份和恢复过程中,通过将重复数据删除工作负载分散到多个重复数据删除引擎上来加速整个过程。这种方法通过软件途径或者硬件途径都可以实现。那些将重复数据删除行为分散到多个不同节点的经销商们,更重要的是,他们可以让更多的节点加入进来,这样相比那些只有单独处理节点的情况,也能提供更为强大的可扩展性能。

  性能因素实际是由几个方面因素决定的,包括备份软件、网络带宽和磁盘类型。仅恢复单独一个文件和做一个备份的完整恢复是完全不一样的。因此需要在当前环境的多个不同恢复需求场景中,尤其是那些存放了有一段时间的数据,使用重复数据删除引擎测试去重节点的性能以及判断重复数据删除技术对当前环境可能带来的潜在影响。

相关推荐