存储 频道

IT168评测:多重虚拟机备份流化减少RTO

  为了减轻业务流程和IT基础设施的灵活性之间的摩擦,聪明的CIO们正在一个虚拟操作环境(VOE)中利用虚拟机(VMs),如由VMware公司创建的机架服务器,这些服务器的可靠性,可用性和扩展性都很强,同时也降低了成本和运营支出。然而,它也并不是完美的。虚拟化大大增加了服务器I/O负载,扩大了政府法规的风险管理,单机主机服务器故障会关联到多个运行多个应用程序的虚拟机。

  这篇文章中,我们主要关注的是服务器的I/O问题,和与之关联的在虚拟操作环境内端到端备份和恢复进程的执行。

  随着服务器托管八个以上的虚拟机,光纤通道HBA不再被认为是一个简单的产品。主机服务器内共享HBA的虚拟机不断增加,SAN输出端成为服务器的一个问题,同时也成为一个交换机问题。在一个虚拟操作环境(VOE)服务器内,HBA不得不为了Virtual Fabrics(虚拟光纤网络)扮演虚拟交换机的角色,虚拟HBA创建了Virtual Fabrics(虚拟光纤网络),通过N_Port ID virtualization分配。为了解决这个问题,博科HBA采用的是高性能ASIC,它每个端口支持50万IOPS,由八个lane Gen 2.0 PCIe接口组成,有40Gbps的内部服务器吞吐量。在一个虚拟操作环境(VOE)端到端备份和恢复的进程中,对于支持高级SAN I/O 吞吐量的需要,这种性能是非常重要的。

  为了优化资源利用率,站点通常在主机服务器(利用多核处理器)上运行八个或八个以上的虚拟机。密集虚拟机配置的I/O吞度量给主机服务器带来很大压力,而主机服务器必须虚拟多个虚拟机上所有的SAN硬件。

  虚拟操作环境(VOE)备份的一个主要问题是重大的I/O开销(overhead)发生在利用VMware整合备份(VCB)进程中。在一个VCB备份中,所有的数据都必须进行两次读写,一次是服务器复制VCB proxy服务器的本地目录,然后又到备份媒介。数据在VCB备份阶段同时读写,达到最优效率要求这个proxy server可以提供非常高的I/O吞吐量。

  更重要的是,VCB可以在一个SAN内移动所有的数据,只是应用VCB proxy服务器安装的HBA。为了达到相当高的I/O吞吐量能力,而无需系统和存储管理员手动调试,介入,需要花费额外的费用。运营成本控制存储资源的资本成本,任何需要手动配置或调试的都不是成本高效的。

  在此背景下, openBench实验室检查了博科815和825HBA卡,它也可以直接通过惠普作为惠普82B的PCIe单和双端口HBA卡。

  为了给我们的虚拟操作环境(VOE)备份测试提供一个基准,我们首先安装了三个single-port 8Gps HBA——一个博科815,一个Qlogic QLE2560, 和一个Emulex LPe12000——在四核的HP ProLiant DL360服务器运行Windows Server 2003和英特尔Iometer基准(benchmark)。这个服务器将在今后承担我们的VCB proxy服务器的作用。在我们8Gbps测试光纤中心,我们配置了一个博科300交换机。

  为了提供一个完整的VOE测试环境,openBench实验室利用三个服务器, Sepaton的S2100-ES2虚拟磁带库和两个4Gbps光纤通道端口,以及一个Xiotech Emprise 5000存储系统和两个4Gbps光纤通道端口。我们在一个四边处理器HP ProLiant DL580服务器上托管了八个运行Windows Server 2003的虚拟机,HP ProLiant DL580服务器上跑的是VMware ESX Server 3.5。从HP ProLiant DL360服务器上管理我们的VOE,此时HP ProLiant DL360上跑的是Windows Server 2003上的VMware vCenter Server (虚拟中心)。

  为了处理端到端的备份进程,我们安装了Veritas NetBackup,VCB在一个二级四核HPProLiant DL360服务器上,运行的是Windows Server 2003。VCB在一个Windows 服务器上安装了一个虚拟LUN驱动,叫做VCB proxy。在一个备份过程中,VCB指示ESX主机给虚拟机上的每个逻辑卷创建一个快照。Windows服务器用虚拟LUN驱动复制快照,保存在本地目录上。因此,备份应用可以备份包含刚刚复制快照的本地目录,这样无论在虚拟机还是ESX服务器上都避免了任何进程影响。这就是VCB proxy server的SAN连接重要性的原因。

  随着设备成倍的推进能力,应用的数目也在逐渐减少。8Gbps博科815和825就是这个驱使的例子。这些HBA支持带宽和IOPS集中应用的最高性能。

  虚拟化和备份是需要较高级别的I/O带宽的日常应用。尽管如此,最终的IOPS是超过他们的事务处理需要。此外,针对主机虚拟机现有的多核CPU是非常高效的,但这些CPU不能提供I/O延迟需要。

  对于备份来说,重要的中心应用是同时读写的吞吐量。一个8Gbps HBA必须能够以8Gbps的速度同时读写。同等重要的是平衡读写吞吐量。在备份过程中,控制因素是最慢设备的最慢比率。

  使用Iometer产生多个连续读取和写入流,我们仅用博科的8Gbps HBA测量近线速度读写吞吐量。总共I/O吞吐量达到平均1.56Mbps,以786Mbps测量持续读,以782MBps测量的持续写。

  QLogic QLE 2560的读写I/O比率是平衡的,尽管如此,总共的吞吐量大约12%,小于应用博科815HBA测量的水平。特别是,读的吞吐量是688MBps,写的吞吐量是676MBps。那些结果备份的固定潜在吞吐量是675MBps,这个结果比在我们的VOE测试硬件的可持续最大吞吐量略高。

  当我们测试Emulex LPe12000时,在读和写吞吐量比率有很大的偏差。因此,我们的基准预测在我们备份应用潜在的吞吐量,配置中采用的一个单一的LPe12000HBA可能受限于450MBps。鉴于这些结果, openBench实验室开始探索在两个标准备份方案中,我们的基准预测的实际性能有多好。

  在我们第一个吞吐量测试中,我们在一个主机ESX server上的八台虚拟机上做备份,然后把他们备份到我们服务器上的磁盘存储池。NetBackup并联的运行所有的虚拟机备份,特别值得注意的是备份进程的第一阶段。在那个阶段,惠普DL360服务器在它的VCB proxy上运行。服务器读取共享的ESX数据库上的每个虚拟机目录,同时在本地目录上写入任何一个快照文件。这些进程一致以500MBps的速度运行,应用的是博科815和Qlogic QLE2560 HBA。

  在我们的第二个读写吞吐量测试中,我们把在第一次测试中应用的存储池备份到VTL,VTL配置了八个逻辑磁带驱动。为了最大吞吐量,NetBackup把进程分散到八个I/O流。博科815很容易支撑1300MBps读写吞吐量,这就是我们测试硬件的I/O流限制。鉴于我们 集中应用基准和应用测试的结果,8Gbps博科HBA将有助于保证任何多应用中心环境,包括VOE,Web2.0,以及备份和恢复应用中的SLA以及与之相关的业务流程。

0
相关文章