【播客】主存储去重,压缩:为数据精简做准备

日期: 2010-11-07 作者:Tony Asaro翻译:付晓飞 来源:TechTarget中国 英文

主存储去重(重复数据删除)和压缩现在可能还没有流行,但是业界的分析师们认为数据精简技术会随着这几年提供产品的厂家的增多而变得无孔不入。   爆炸性的数据存储增长最终会使得更多的IT部门把去重和压缩放在他们存储需求的列表里,以期事半功倍, The INI Group公司的资深分析师和创始人Tony Asaro如是说道。   在这个访谈中,Asaro探讨了在主存储中引入数据精简技术的难题,并针对未来不可避免地会在主存储中引入数据去重和压缩技术的IT部门提供一些建议。 Play now: You must have Adobe Flash Player 7 or above to view this……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

主存储去重(重复数据删除)和压缩现在可能还没有流行,但是业界的分析师们认为数据精简技术会随着这几年提供产品的厂家的增多而变得无孔不入。

  爆炸性的数据存储增长最终会使得更多的IT部门把去重和压缩放在他们存储需求的列表里,以期事半功倍, The INI Group公司的资深分析师和创始人Tony Asaro如是说道。

  在这个访谈中,Asaro探讨了在主存储中引入数据精简技术的难题,并针对未来不可避免地会在主存储中引入数据去重和压缩技术的IT部门提供一些建议。

Play now:

You must have Adobe Flash Player 7 or above to view this content. See http://www.adobe.com/products/flashplayer to download now.

  SearchStorage.com:去重已经在备份领域站稳了脚跟。在主存储中实施去重主要有哪些挑战呢?

  Asaro: 现在主存储没有很多解决方案,供应商们需要确保的是他们不会使他们的系统过载并增加过多的延迟。数据去重需要CPU计算时间,这需要内存,所以这里有个成本和性能的问题。他们需要很认真地处理如何构建和实施去重方案的问题,而且他们也不想在数据重注水上大费周章。在他们评估方案将对性能产生何种影响——对主存储来说性能永远是个问题——的时候,他们想要确保实施了一个成本低廉而又不会给过程引入任何延迟的架构。

  SearchStorage.com:NetApp为在主存储中使用去重奠定了基础,他们建议使用去重,特别是在VMware的虚拟机磁盘文件中。去重还对主存储中的哪些类型的数据特别有效呢?

  Asaro: 这都是相对的。VMware的例子不错,因为那里面有大量的重复数据。但是在数据库和文件中也有大量的重复数据。我认为人们还想当然地认为是备份去重,所以说“哦,我们能达到20:1、30:1”。但是如果你能在主存储环境中得到2:1或者4:1的去重,那就已经省了很多了。如果你有100TB的数据,而能把它存储在50TB或者25TB的磁盘上,这就是很大的变化。总的来说,在数据库和某些特定的文件类型中,你会得到不错的回报,但是这要取决于你的期望有多高。如果你期望在非VMware环境中有20:1的回报,你可能会失望了。但是即使是2:1,4:1,5:1,对你投资来说已经是不错的回报了。

  SearchStorage.com: 为什么主存储中的去重和压缩没有更快地发展?

  Asaro: 第一,人们没有实现它。而且当供应商们研究去重的时候,他们没有必需的核心竞争力来实现它。他们必须研究并理解它,而市场对主存储又没有去重的需求。直到竞争对手开始推出类似产品,他们才觉得“不好,我们要失去订单了,我们必须解决这个问题。”你可以看到NetApp有这个产品,BlueArc和Xiotech刚刚发布。Compellent发布了一些相关的东西,你会看到越来越多的厂家发布主存储的去重技术。Dell收购了Ocarina。越来越多的注意力开始集中在这上面,而其它的供应商们也开始正视这个问题,说“好吧,我们该进入防御模式,在这条线上做点事情了。”

  但是那并不便宜,有很多的相关成本。你会需要内存,你还需要CPU。你也需要一个处理那些问题的策略,而构建它的架构并不简单。不能随意把东西丢进去就了事。它必须有一些设计,思考并花点力气才能以一个不会影响性能也不会太过昂贵的方式实现。

  SearchStorage.com:你预见主存储去重和压缩技术在未来几年将有何变化?

  Asaro: 我们已经开始看到越来越多的信息发布。你还会看到收购。  我认为你会看到越来越多的存储供应商加入进来。我认为你会看到在2011年中更多的产品会出来,而后,还会有越来越多的产品。在2012年,你会看到它被广泛地使用,而且被很多的厂家所支持,结果就是,你会看到更多的市场教育。你会看到最终用户把它写进标书中,我认为它会变得比现在更加流行。

  SearchStorage.com: 你预见会有大部分最终用户在主存储中使用去重或压缩的那一天吗?

  Asaro: 这是毋庸置疑的。你和IT专业人员聊聊,他们被要求以最少的资源做最多的事情。数据压缩是经过验证的成熟技术,只剩一个如何在环境中实施的问题了。如果你能得到2:1、4:1的无损数据压缩,基本上就没什么可以犹豫的了,当然这要取决于如何实施。然后在上面实施去重这些辅助技术。想像一下这个世界,人们有上百TB甚至PB级的数据容量,而10年以后,可能是上百PB甚至ExaByte级别,我认为用户使用它们的趋势是不可避免的。

  SearchStorage.com:你现在对最终用户有什么建议呢?

  Asaro: 我们还在门槛上。现在只有少数的几个方案在讨论之中,而极少有在市场中的实际应用。重要的是用户要问供应商他们在这个领域的策略是什么。它是否会影响性能?对价格的影响又是怎样的?你会在后端节省我的开支,不过我需要在前端投资什么东西?哪种类型?是否实时?是一个混合型过程,还是后处理过程?我能跨多个卷使用它吗?在存储系统内部对此有多少支持方面,有没有什么限制?更适合哪种应用?最佳实践是什么?它是否会影响特定的应用而不影响其它的?我会问很多关于实施背后的实际细节的问题。

相关推荐