存储 频道

揭开重复数据删除技术的神秘面纱

部署重复数据删除

    重复数据删除提供了两个关键特性来解决企业IT环境中的专业挑战,其一是有效控制了企业数据在从在线存储介质向近线存储介质存储和恢复过程中的数据爆炸式增长,不仅仅是在大型的数据中心,也包括在企业广泛的分支机构中,而这些分支机构的数据增长往往混乱而无法控制。第二点,重复数据删除让企业的IT进程真正从对传统磁带备份的依赖中独立起来,并能够采用性能更好、更易于管理的磁盘备份方案。

    但是当你决定并愿意支付上万美元的资金来购买任何重复数据删除产品的时候,请详细询问下你的供应商。例如适用于自身的最大压缩比、合理的备份架构、可能的备份和恢复性能等等。但实际上某些供应商对重复数据删除的压缩效果吹嘘的过于神奇。

    每一家推崇这项技术的厂商都宣称自己的产品的数据压缩比率有多高,有的简直让人惊讶不已,某些重复数据删除的厂商可能会宣称他们的压缩比能够达到50:1甚至60:1。但是这么高的压缩比率实际上在现实中无法实现。实际的情况是,在全量数据备份的条件下通常有最大量的副本,因为用户每次备份的时候都将相同的数据备份了一次又一次。正是基于此,厂商所称的压缩比率才能达到那么高。实际上,绝大多数用户在增量备份时只能有2:1或3:1的压缩比率。

    同时,具体到实际的部署过程中,你还需要检测各方面的备份性能,包括整体备份和恢复性能测试、单数据流备份和恢复性能测试,不仅仅需要测试近期的数据,还需要对一些时间更长久的数据进行测试。通过并发的大数据流测试单位时间备份和恢复的数据量,通过单数据流测试备份和恢复的实际速度等等。同时企业还需要审视以前的备份方式,并结合重复数据删除产品制定适合于自身的新的备份策略。

0
相关文章