【IT168 专稿】过去的五年里,我们一直关注IT的高效性,这样使我们操作也更高效。
通过虚拟化技术,我们的存储,网络和服务器变得更加高效。但是现在是我们需要停止单纯对设备的关注的时候了,此时,我们应该更多的关注数据效率。
毕竟,除了设备制造商,谁会关心设备呢?所有的关注都是关于数据的。现在是应该通过在硬件上系统的增加智能服务来提高效率了,这样我们可以从数据中尽可能多的提取更多有价值的数据。
数据高效性就像它听起来的一样——让我们需要的数据可以被更高效的访问、使用和管理。并让我们开发出它更大的价值,这就是IT存在的理由。
在存储界,重复数据删除,自动精简配置,快照,虚拟化,多重用户(Multi-tenant)和数据压缩都是很热门的高效技术。这些技术有些是新的,有些是一直存在的。所有的这些技术都是很重要的。
当这些技术使数据更高效的时候,考虑“为什么”而不是“怎样”更高效,才是重要的。例如,多数重复数据删除解决方案是为备份所设计的,而不是主存储环境。我完全赞成这样使数据备份更高效,但是那只代表了IT潜力价值的一部分。
数据压缩的来临
数据压缩的出现已经有一段时间了,但是这种技术现在又复兴了。主要数据压缩将会改变基本的效率和用户设备的整体价值观。那是因为当你创建的效率和数据点想接近时,你获得了更多的价值。你可以这样考虑:如果你开始有100GB的主要数据,随着时间的推移,你会备份x次,因此你最后还会有100GB的主要数据,100GBx的备份数据,或者继发的一些数据。
重复数据删除厂商如EMC,DataDomain花了很多时间在100x问题上。这也是值得花时间的。在创建和备份之间,原始数据可能还有很多其他用途——比如测试,开发,数据库等。
尽可能早的优化数据是很关键的。从这一点上,所有的下游利益被放大。移动的会更少,管理的更少,备份的也更少,复制,存储,中断的也会少。这样就会有很多新的。
我认为优化数据最高效的方法就是利用手边所有的工具。首先,最大化的压缩数据。已经证明我们可以在任何数据脚本中压缩50%,甚至更多。其次,进行重复数据删除。在完成压缩工作后,你可以重复删除任何东西。即使不想进行重复数据删除,也是可以的。删除你不需要的,而且开始清理。这样就让你有完美的基准线。
然后从这个地方,捕捉,自动精简配置,复制(虚拟的),你可以做任何你想做的。最后你可以优化脚本,这样可以使数据更有效率。
诀窍是实时压缩,这样就不会遭受20年前的性能痛苦。即使现在也可能发生。在整个数据圈,很显然数据优化是价值最大化的方法,它可以在数据存在的任何地方、任何时间操作并使用。