过去的五年里,我们一直关注IT的高效性,这样使我们操作也更高效。
通过虚拟化技术,我们的存储,网络和服务器变得更加高效。但是现在是我们需要停止单纯对设备的关注的时候了,此时,我们应该更多的关注数据效率。
毕竟,除了设备制造商,谁会关心设备呢?所有的关注都是关于数据的。现在是应该通过在硬件上系统的增加智能服务来提高效率了,这样我们可以从数据中尽可能多的提取更多有价值的数据。
数据高效性就像它听起来的一样——让我们需要的数据可以被更高效的访问、使用和管理。并让我们开发出它更大的价值,这就是IT存在的理由。
在存储界,重复数据删除,自动精简配置,快照,虚拟化,多重用户(Multi-tenant)和数据压缩都是很热门的高效技术。这些技术有些是新的,有些是一直存在的。所有的这些技术都是很重要的。
当这些技术使数据更高效的时候,考虑“为什么”而不是“怎样”更高效,才是重要的。例如,多数重复数据删除解决方案是为备份所设计的,而不是主存储环境。我完全赞成这样使数据备份更高效,但是那只代表了IT潜力价值的一部分。
数据压缩的来临
数据压缩的出现已经有一段时间了,但是这种技术现在又复兴了。主要数据压缩将会改变基本的效率和用户设备的整体价值观。那是因为当你创建的效率和数据点想接近时,你获得了更多的价值。你可以这样考虑:如果你开始有100GB的主要数据,随着时间的推移,你会备份x次,因此你最后还会有100GB的主要数据,100GBx的备份数据,或者继发的一些数据。
重复数据删除厂商如EMC,DataDomain花了很多时间在100x问题上。这也是值得花时间的。在创建和备份之间,原始数据可能还有很多其他用途——比如测试,开发,数据库等。
尽可能早的优化数据是很关键的。从这一点上,所有的下游利益被放大。移动的会更少,管理的更少,备份的也更少,复制,存储,中断的也会少。这样就会有很多新的。
我认为优化数据最高效的方法就是利用手边所有的工具。首先,最大化的压缩数据。已经证明我们可以在任何数据脚本中压缩50%,甚至更多。其次,进行重复数据删除。在完成压缩工作后,你可以重复删除任何东西。即使不想进行重复数据删除,也是可以的。删除你不需要的,而且开始清理。这样就让你有完美的基准线。
然后从这个地方,捕捉,自动精简配置,复制(虚拟的),你可以做任何你想做的。最后你可以优化脚本,这样可以使数据更有效率。
诀窍是实时压缩,这样就不会遭受20年前的性能痛苦。即使现在也可能发生。在整个数据圈,很显然数据优化是价值最大化的方法,它可以在数据存在的任何地方、任何时间操作并使用。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
IT存储管理员:多一些业务 少一些比特
存储专家的日子可能即将结束,然而,尽管某些存储技能已经过时,但存储管理员对于企业利益的重要性也同样重要。
-
简单可靠的平面备份技术
在过去,很少有人认为平面数据备份可以成为传统备份方式的靠谱的替代者。而到了现在,随着快照技术的不断增强,趋势正在改变。
-
快照管理工具增加了智能数据管理功能
Catalogic Software的ECX 2.6产品在快照创建和管理方面针对DevOps增加了许多实用的功能。
-
评估虚拟环境中的存储解决方案
虚拟化环境中的存储整合是一项复杂的任务,需要考虑一些重要因素,包括成本、性能、可靠性、易用性、集成度等等。