存储 频道

大型存储环境下的重复数据删除技术

【IT168 资讯】重复数据删除已经成为存储界的一个热门话题,国内外各大存储会议都对重复删除技术进行了热烈的讨论。在厂商方面,各大厂商非常重视重复数据删除技术的研究,加快重复删除技术的发展;在用户方面,用户纷纷表示将大力开展重复数据删除技术。但是,那些拥有大型存储环境的公司用户却表示他们现在很难找到符合他们存储需求的相应产品,之所以这些用户会遇到这方面的问题,是因为有以下一些原因:


  一、灾难恢复计划

  有些具有大型存储环境的公司可能现在还在坚持使用磁带作为备份介质,同时,一直在等待重复数据删除技术的发展,寄希望于重复数据删除技术能能在灾难恢复种发挥更大的作用。这些用户的心态不难理解:在拥有同等容量的磁带和磁盘,磁盘需要的费用要多的多,这其中还不包括电源和制冷设备的费用,如果磁盘还需要复制的的话,费用将更多,通过重复数据删除技术,按照40:1的重复数据删除比率将磁盘费用能够降低到和磁带费用差不多,这个时候,磁盘的存储优势就能够体现出来了,因此重复数据删除技术是这些用户开展磁盘备份的关键。

  为什么这些用户不使用重复数据删除技术了?这是因为现在的重复数据删除设备还不具备为灾难恢复计划拷贝其重复删除的数据和磁带索引。我们假设万一发生一连串的灾难导致两个系统都崩溃,那就很麻烦了,所以这些用户都希望能够将大多数重复数据删除系统中的数据拷贝到磁带。


  二、大型存储环境下的功能问题

  相当多的用户现在正在极度渴望找到一个产品,能够减少每天24小时都必须收到保护的海量数据。这些公司总是遇到很少有足够的空间在磁盘中存放增量的备份数据,这样只能把数据发送到虚拟磁带库(VTL)和磁带。在尝试使用重复数据删除技术后,用户会发现在大环境下,性能将下降很多,并不能达到预期的效果。而且可能出现,后处理系统与获取数据的服务器之间产生冲突。而这些都是由于性能的问题。

0
相关文章