分层是很热门的技术,很多企业都为自己的网络搭建了分层平台,也有很多企业从分层存储中得到了好处,节约了企业运营成本。但是随着越来越多的公司应用分层存储理念,一些水土不服,应用有阻等问题也初见端倪,那么分层存储带来企业到底是利大于弊呢?还是弊大于利?今天我们就简单
随着VTL 市场日趋成熟,目前的VTL产品大都能够支持开放操作系统、备份软件、FC SAN架构、具备磁盘子系统的可靠性而且实施简单,可说是已经非常大众化了。只有通过一些高级的功能特性才能真正将各家的VTL产品区别开来,而这些功能,也许就是最能创造真正价值的,正
由于存储的扩展,在企业中对存储系统进行管理是一项重大的挑战。存储管理的关键是对容量的规划----了解有多少存储可用,知道存储的具体位置,以及为用户和应用分配存储资源。
本文比较和对照了in-band(带内)和out-of-band(带外)两种重复数据删除方式,以及它们各自存在的利弊。
本文将介绍重复数据删除技术的基本原则和具体实现等相关问题,并列举一些重复数据删除技术在实际应用中的例子。数据如潮水般涌向企业。存储管理员不断努力地处理日益激增的数据,比如,文本、声频、视频、图像,还有不断增加的大容量邮件附件。存储这些数据并不是最佳的解决方案—
基于硬件的重复数据删除产品能够减轻与基于软件的重复数据删除产品相关的处理负担。重复数据删除的特性也可以嵌入到其他的数据保护硬件中,例如备份平台,虚拟磁带库(VTL)系统,甚至是诸如网络附加存储(NAS)的一般目的的存储系统。这种方法一般并不侧重于缩短备份窗口或
重复数据删除,也被称为智能数据压缩或单一实例存储。它是一种可以减小数据存储需求的手段。重复数据删除的处理过程是通过删除冗余数据,确保实际上只有第一个单一实例数据被存储。而被删除的重复数据将由一个指向元数据的的指针所代替。
在部署重复数据删除系统时,考虑其可伸缩性和可靠性很重要。随着存储容量和重复数据删除粒度性的增加,系统性能需要保持在可接受性的水准之上。如果由于重复删除算法错误而产生数据损失,重复数据删除应能够不受影响。
随着企业的数据量不断增长,大量的重复数据给存储带来严峻的挑战。举例来说:现在有一个大小为10M的PPT文件,要把它拷贝给100个用户,这就需要Exchange服务器有1GB的可用存储空间。当每周都要备份1GB的重复存储时,问题就会变得更加糟糕。一年后,浪费的1
重复数据删除可以通过两种方式实现:既可以通过把软件产品安装在专用的服务器上实现,也可以将其集成到备份/存档软件中。基于软件的重复数据删除的部署成本要明显低于专用硬件,例如Data Domain公司的DDX系列产品,而不需要对物理网络进行重大的改变。
尽管Sun在三年前以41亿美元收购StorageTek的行动一直面临着问题,Fowler仍然表示结合的工作“进展得不错”,最近发布的存档公告也证实了这种说法。这表明,Sun缩短了同存储领域其他竞争对手,如EMC,HP,IBM以及NetApp之间的差距。
目前,Data Domain公司正试图将"重复数据删除"技术推广到远程办公领域,为此,今天他们推出了DD120设备,而其竞争对手Diligent公司现在正计划着在今年晚些时候也在这个领域推出自己的产品
尽管今天单位存储空间的成本不断走低,但企业需要存储或者备份的数据量仍然在持续上涨,导致了企业在磁盘存储空间方面无止境的成本投入。是否能有一种技术或者解决方案能够10倍甚至20的缩减企业数据量,让磁盘备份在容量空间方面的成本能够被更多的企业承受呢?重复数据删除正
实际上我们也看到了前事处理和后事处理对备份性能都有影响,这两个技术各有好处和坏处,网友比较关心重复数据删除使用的安全性问题,还有就是它的压缩比率可以达到多少?从您的角度来看,您觉得用户如果应用重复数据删除应该怎么样评估这个应用效果呢?