存储 频道

如何解决存储I/O性能瓶颈

  【IT168专稿】存储始终存在挑战,在过去十年中,传统的存储平台可以满足以每GB以更低的成本获得更高容量系统的要求。但是,现在真正面临的是严重和不可避免的性能退化。这一点至关重要,因为大多数机构依赖一个可扩展的设施来为I/O服务,以更快的交付信息,帮助获得更好的收益。事实上,当很难获得利润的时候,解决存储I/O性能瓶颈在经济疲软时变得更加重要。

  正如在以前我们的一篇文章“什么引起存储I/O性能瓶颈”中讲到,多用户负载是核心问题。多用户负载也称为并行/聚合负载,数据是在多用户或应用中共享,在同一个共享环境内的多个用户同时访问。这种类型的活动不再降低到几个孤立的企业,而其性能要求是在主流数据中心环境的边缘。事实上,任何部署一个服务器虚拟化项目的机构本身已经定义了一个多用户负载要求。

  就服务器虚拟化来说,多个虚拟服务器产生大量的,近乎同时的I/O请求,服务器虚拟化管理程序基本上成为一个存储I/O混合器,多个I/O请求在存储的同时几乎分散了所有要求的注意力。

  多用户负载已经远远超出了仿真工作的传统范围,以前我们所看到的通常是在芯片设计或石油、天然气公司的SEG-Y数据。有很多其他的包括生物信息学的DNA序列,制造业中的发动机和推进器测试,政府部门的监测图像处理技术,媒体和娱乐方面的高清晰图像,以及许多项目的web2.0推动。

  一旦每个公司全面投入生产,多用户负载的性能要求就成倍增加。事实是,传统的存储措施,不管他们是高用户的SAN或高速NAS,不是太复杂就是太昂贵。充其量是解决存储I/O性能问题的创可贴。结果,存储管理员被迫处于一个立刻拿出解决方案的位置,因为他的/她的用户必须“接受”。

  用户不得不“接受”的性能瓶颈能降低公司收益,或一个竞争优势,所有的这些都有可能产生利润,可能带来长期生存能力的不利影响。

  对于很多存储工程师来讲,提高性能的黄金标准是简单的增加硬盘驱动器机制的存储系统。这种方法可以适用,只要存储系统的要求比服务那些要求的驱动多。结果,随着硬盘的增加,存储性能将继续按比例增加。在这种情况下,因为在某一点,对于存储系统,他们不能产生足够的请求以维持补充的驱动,大多服务器应用最后成为了他们自己的存储瓶颈。多用户负载采用的挑战是他们简单的产生的请求比传统存储系统支持更多——不管驱动器的多少。本质上,瓶颈问题从缺乏可用的磁盘驱动机制转到了服务I/O的存储控制器或NAS head本身。

  多用户负载还要求用户或服务器托管用户之间共享数据。因此,理想的平台应该是专为共享数据所设计的一个NAS。这个问题是相对于传统的NAS架构,它有很多内置的限制,这些限制可能阻碍性能,可扩展性以及可靠性。

  具有讽刺意味的是,这个问题的解决方案是在开始产生高I/O负载内发现的。服务器虚拟化和网格计算环境。这些环境允许多用户应用或者在单物理服务器或允许单应用跨多个服务器扩缩。相同的架构设计在存储上都是可用的。事实上,像Isilon Systems公司提供建立在集群架构的可扩展NAS,这些架构允许一个可扩展的,高IOP的NAS解决短期和长期的存储I/O性能瓶颈。

  对称的架构

  设计扩展NAS存储的第一步是根据它的对称结构,使一系列节点组合在一起,作为一个单一的实体。在这个集群架构,多行业标准服务器可以配备SAS驱动器和网络连接,形成一个节点。每个节点可以通过Infiniband网络或IP网络连接在一起。

  对称意识文件系统(Symmetrically Aware File System)

  独立节点通过软件智能性统一起来,创建一个对称的意识文件系统,利用不同的组成统一到一个单独的实体。当这个文件系统适用硬件节点时,它创建了一个高IOPS NAS集群,这个集群可以解决现在的挑战和明天的多用户负载挑战。

  消除存储计算瓶颈

  如前所述,多用户负载,不管一个传统存储系统扩展的多大,使用了多少个驱动,最后存储计算引擎成为了一个瓶颈。扩展NAS配置的价值是存储计算引擎不再局限于一个单一的系统和单独的一套控制器或heads,这些都是存在于传统的NAS中。

  通过一个对称的意识文件系统(symmetrically aware file system),如Isilon公司的OneFS,集群的每个节点提供存储计算资源。事实上,它也能确保集群所有的节点参与。相比之下,一些集群解决方案必须指定一套主要的节点,每个请求通常是两个。这些系统通常是从一个集群的冗余受益,他们通常和传统的NAS有相同的性能瓶颈。

  一个集群意识文件系统(cluster-aware file system),每个文件被分解成小的block,那些小块儿通过分布在集群上的节点。因此,当一个文件是必要的,集群上的多节点可以交付数据返回用户或应用请求。这显著提高了整体性能,尤其是当数百甚至数千的时候,这些请求都同时来自一个多用户应用。

  和传统的存储解决方案相比,在系统达到理论上最大的驱动数之前,性能是平缓的,扩展的NAS系统对称的设计允许性能对着节点的增加线性扩展。集群的每个节点交付额外的存储容量,它是以驱动的形式,另外的高速缓冲存储器,存储网络I/O以内部集群连接的形式,以及跨组和额外的连接连接到用户。更重要的是,每个节点包含更多的处理能力,能够应付外部和内部(复制,备份,快照管理和数据保护)的要求。

  既然多用户环境通常支持大量的应用,他们实际提供比企业级存储系统更高级别的可靠性(超过“five 9”)也是非常重要的。存储故障可以影响成百应用或关键的性能,创收计算集群。这些负载也不能适于用所有的RAID保护方案。一些应用或甚至特定的文件肯呢个需要专门的数据保护,以便他们能够超越多个驱动器或节点故障继续运作。

  对称集群的高IOP NAS通常交付了超出企业级的可靠性。首先,由于冗余节点,存在任何集群环境的内在价值。当和文件系统一起时,像Isilon公司的OneFS,那是完全存储集群意识,该平台可在一个应用或文件级别上提供粒度级别的保护。它不仅允许在多驱动或节点故障时,数据可用和可访问。也可以迅速恢复。

  传统的存储系统限制了两个控制器或heads,必须处理一个故障的驱动的重建,连通其他的任务。因此,这些系统需要花费10个小时以上回复现在的高容量驱动器。此外在一个满载下,恢复的时间可以增加到20个小时,甚至更多。多用户工作量由于其本身的性质几乎总是满负荷,因此,总是遭受最坏的情况。

  成本高效——随着性能增长而付费

  最后,性能应该是高效、合理的。理论性的高端存储系统,通过利用专门的和昂贵的处理器提供了最高水平的性能。直到环境的存储性能要求扩展来匹配这些处理器的容量,他们所浪费的资本。具有讽刺意味的是,在环境性能要求匹配特定、昂贵的处理器容量后,他们很快就扩展对了那个处理器的容量、需要的是一个能够以小型设备开始的解决方案,然后模块化扩展来跟上环境的增长。

  向外扩展的NAS是体现了按成长付费的模式。集群可以以接近所需的确切规模开始,使前期投资满足环境中性能和容量的需求。随后,随着环境的发展,可以通过添加节点提高各方面存储集群的容量,存储性能和存储网络性能。

  更重要的是,像他们的计算集群,NAS存储集群可以利用业界标准的硬件来降低成本,并让NAS集群供应商把重点放在存储系统的能力方面,而不是在设计新的芯片。

  多用户负载的挑战能够通过高度扩展很好的解决,但是必须是高效NAS。一个可扩展的NAS存储系统允许你利用NAS的简单性共享保持IT最大高效,同时超过原有的存储架构的性能,任何计划部署一个多用户负载的机构,不管它是否是普通的,还是虚拟服务器环境,或更专业的计算集群,都应密切检查扩展的NAS解决方案以满足他们的存储需求。

0
相关文章