存储 频道

捂紧钱袋,删除备份系统中的重复数据

重复数据删除安全吗?
    执行重复数据删除操作当然不可避免的会涉及到对性能的影响问题,无论是哈希码的比对还是元数据的提取,都会占用一定的主机资源。为了保证一定的性能指标,很多厂商都为备份设备配置了更强劲的处理能力。

    更多的厂商采用了备份结束后再执行重复删除的方式来解决该问题。这种做法是在备份完成之后在后台将虚拟磁带上的数据进行切分、分析和比对,从而避免了和备份过程争用系统资源。但是由于其首先要保存原始的数据,在分析过程中也会产生一些中间数据,所以会消耗更大的磁盘空间。另外,如果用户数据量过大,重复删除过程不能在下次备份启动之前完成则会影响到备份性能。

    综上所述,用户在考虑是否采用以及采用何种重复数据删除技术时应当考虑如下因素:首先,要考虑数据量的大小。只有数据量足够大时才可以在购买重复数据删除技术的成本和购买磁盘的成本之间求得平衡;其次,要考虑业务数据类型以及保存周期。静态数据——比如电子邮件等往往可以取得更大的删除比,而不断变化的数据删除比要低,另外,数据保存的周期越长则删除比越大;然后,还要考虑重复数据删除的性能。不同的数据切分算法、不同的数据比对算法以及不同的重复数据删除选择,都会对备份系统的整体性能产生影响。

    只有在充分考虑了自身环境以及不同的技术特点后,才能够获得最适合自己的重复删除技术。

0
相关文章