存储 频道

自动精简配置&重复数据删除技术研究

重复数据删除技术

  重复数据删除(De-duplication)技术,主要是对存储数据流以一定的目标尺寸进行指纹校验,对于其中重复出现的数据单元,在实际写入存储介质时,只需记录相应的指纹记录位置即可,因此可以极大降低存储介质消耗。“去重率”这个参数就是用来定义重复数据删除中的优化率,它等于原数据大小除以去重之后的数据大小,实际去重率随去重模块部署在存储系统的位置以及数据的重复率有较大差异。对于次级备份数据,一般的去重率在10~20:1之间。另外还可以配合硬件压缩,像Hifn公司的DR系列硬件加速无损压缩板卡,可以在不影响备份设备性能的前提下取得2:1的压缩比。这样两者结合,可以实现20~40:1的数据缩减比。

  当前重复数据删除主要被用于次级备份业务,一般和虚拟磁带库(VTL)处在同一位置。如果说IP-SAN市场的崛起是源于对链路要求从FC到IP的降级,那么支持重复数据删除的IP-SAN设备会更加加速这样的趋势。因为经过重复数据删除和压缩处理之后,应用产生的数据被大量缩减,使得之前利用FC构建的主存储和次级存储之间的链路的负担显著减轻,从而完全可以被更经济的IP链路所取代。


 

  2009年,自动精简配置和重复数据删除这两种技术可以显著提升存储介质的利用率,进而提升存储系统的利用率,减小企业IT运营成本,降低管理成本,有利于企业在经济发展面临困境时顺利过冬。

0
相关文章