近来,提高存储高效性并不适用于主存储。没有人会把这么重要的事情搞砸,在二级存储上有很大的备份文件。
但是,时代不同了。对于一些供应商和客户来说,更好更高效的管理二级数据(通常是删除的)把主存储放在了中心位置。虽然方法不同,但目标是一致的。通过压缩和重复数据删除技术来减少主存储,它不仅能减少主存储的成本,同时也能按比例的减少备份空间需求。
如何更好的完成主存储优化
根据NetApp高级市场经理Larry Freeman表示在推出新技术增强主存储高效性前,你应该确保尽可能多的应用自动精简配置。这种技术已经表明了它的减少主存储需求的能力。
更多的是,它不要求任何特别的主存储本身的处理能力。Freeman表示但是它仍然在主存储上需要一个重复数据删除的位置,特别是在虚拟环境中,在这个虚拟环境中的每个虚拟机上可能有不必要的多种文件存在。Freeman说:“在高性能方面,尽管资源下载可能是一个亮点,但重复数据删除则会对性能造成负担。”
频繁更新的数据对重复数据删除策略并没有好处。“我们的确在无序数据方面看到了机会,”Freeman说,“我们愿意在Sharepoint和Exchange server应用以及很少用到的数据库看到更多的重复数据删除。”
除了NetApp最喜欢的重复数据删除形式,Freeman也强调重复数据删除是最好的,至少对性能有影响,当它在后面在重复数据删除而不是线上重复数据删除时。“你可以利用晚上和周末”他说。
Freeman也建议进程慢慢实行。“一些公司尽力这样做,但他们对系统变慢感到奇怪,”他说,“我们建议慢慢开始,然后观察,看和学习。”这样也是有好处的,他强调。从容量开始有很多重复的数据,并且性能不是最关心的。
Inline和post-processing主存储
Hifn业务发展部门副总裁John Matze表达了他不同的观点。当谈到主存储,无论是inline还是post-processing,都有一个空间。Matze建议理解你的数据以及它的应用。这样可以帮助你选择最好的优化方法。
Post-processing 可以引起很多问题,如影响备份窗口。在用Post-processing 时你必须依赖操作系统来提供一个可用的缓存环境。“需要花费时间来做”Matze说,“但是如果你有一个好的缓存环境,你不会感觉到很多。”Post-processing也让你依赖于“点”来重置数据,如果有一个系统瘫痪的话,就很危险。
另一方面,Matze说,Inline优化从一开始就整理你的数据,在存储和管理数据方面是很有优势的。
最后,一个存储管理员应该有现实的期望。“重复删除备份数据可以阐述巨大的能效,”他说,“但是他们事实是存在的。与二级存储相比,在主存储上只有很少的重复数据实例。”
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
翻译
相关推荐
-
简单可靠的平面备份技术
在过去,很少有人认为平面数据备份可以成为传统备份方式的靠谱的替代者。而到了现在,随着快照技术的不断增强,趋势正在改变。
-
理想混合云:企业混合云投资的标准
混合云将在2017至2018年期间真正成为生产应用程序及关联的主存储。留意新的方法和产品,包括本文中描述的增强功能,特别是支持云的软件定义存储。
-
在混合云中运行主存储工作负载面临哪些障碍?
混合云存储的可扩展性,灵活性和成本优势,让混合云存储成为长期以来IT专业人士们的首选。然而直到最近,企业选用混合云仍面临重重障碍,尤其是在主存储方面。
-
技术分析:云化的主存储功能是否已就绪?
云技术的成熟使得它日益成为各种备份、灾难恢复和归档服务存放二级和三级数据的首选目标。像云存储网关和软件定义存储这样的技术将使数据中心变得更高效。