【IT168 专稿】行至2010年岁末,各种新闻事件充斥我们的眼球:韩朝对峙的炮声仿佛回荡在我们的耳边;上海胶州公寓大火的逝者也仍然被我们铭记;iPAD与iPhone4的发售引发了空前的抢购热潮;芙蓉JJ已经瘦到100斤并获得“互联网特殊贡献奖”,凤姐也去了美国……在这一系列互联网热点新闻事件的背景下,我们还将面对通货膨胀物价上涨的压力,和一个号称是“千年极寒”的严冬……
一年的时间在我们的社会生活中仅仅只能算沧海一粟,但对技术创新极其活跃的存储产业来说,却足以给未来带来影响深远的改变……为便于广大网友了解存储领域技术创新的路线图以及未来趋势,IT168推出了“年终盘点及新年展望”的系列报道,通过回顾存储领域一年中的重点产品与事件,总结今年的热点技术以及产品,勾勒出存储技术进化的基本脉络,进而描绘产品创新的未来趋势。
本文是存储领域2010年的重要新品回顾,将回溯存储领域2010年发布的较为重要的产品,了解不同存储厂商在2010年产品策略如何。不过需要特别说明的是,本文在此只根据编辑的理解,拣选了一些较有代表性的重要产品,并没有所有的产品一一列出。
HDS VSP(Virtual Storage Platform)虚拟存储平台
作为高端存储市场的三巨头之一, HDS日前在北京的用户大会上推出新一代高端存储系统VSP(Virtual Storage Platform),无疑是影响高端市场竞争格局的重要事件,其产品线的更新方向也预示出高端存储发展的一些信号和风向。
VSP相比HDS的上一代高端系统USP在架构上做出了不小的革新:在新版的VSP中,USP中原有的共用一个连续横跨式体系结构连接的全局高速缓存的多控制器基本架构得到保留,但是换上了Intel的X86处理器,据说速度更快、成本更低;后端链接背板更换成为6Gbit/s SAS存储接口,带宽提升,而彻底摒弃了传统的光纤通道磁盘接口。
▲
HDS新一代高端系统VSP的控制器结构示意图
SAS 2.0拥有6Gb/s的单链路传输速度,价格却接近同等FC磁盘驱动器的一半,倚仗这两点,SAS正在向传统的FC系高端存储架构发起挑战。系统同时提供了固态硬盘SSD支持,最多可有128条6Gbit/s的通道从磁盘和固态硬盘发出。这个内部的转换结构现在被称为Grid Switch Layer。
VSP的前端控制器必须成对出现,互为热备,最低配置是一对VSD组,可不用配备后端存储空间,作为一个纯粹的虚拟化引擎,后端支持管理多家厂商的外部存储阵列,最多可管理255PB的外部存储设备。此外,VSP支持控制器独立扩展,最多可扩展至8组(4对)基于英特尔处理器的虚拟存储控制器(VSD)。
与USP-V版本的控制器设计不同的是,VSP的虚拟存储控制器组配备本地元高速缓存,基于刀片式架构,共用1TB高速缓存,且以后还可扩展。在背端存储设备和Grid Switch Layer之间还有一个高速缓存层。VSD的数据会在这里转移到固态存储,而且不再需要USP的电池备用方案。
▲
HDS VSP控制器缓存处理工作流示意图
较为引人注意的地方是,新版VSP存储控制器采用了Intel的标准化X86处理芯片,回顾EMC一年前发布的V-MAX以及IBM不久前发布的Storwize V7000都同样采用了Intel处理芯片,让人不禁产生一种存储市场逐步向X86架构沦陷的猜想。
从ASIC芯片和Intel芯片的比较来说,ASIC显然在完成简单的任务指令方面拥有更高的处理效率,也因此,ASIC芯片在存储领域的系统设计中一直占据着重要的主导地位。但随着存储系统的功能性和管理性不断增强和提升,大量的软件功能逐步加入高端存储系统,如果全部用ASIC芯片实现,则必须设计自己的CPU来做到功能化目的的实现,无疑会加大研发周期。此外,使用Intel芯片还能轻松享受到Intel公司Tick-Tock战略带来的性能翻倍提升,对存储厂商而言,也是产品性能提升和功能增强的一个不小的助推器。
在扩展性方面,HDS也首次提出了三维扩展的概念,包括纵向扩展(scale up),横向扩展(scale out)和纵深扩展(scale deep)三个维度。
首先我们关注的是VSP横向扩展(scale out)的模式。所谓横向扩展,指的是前端控制器扩展。前面介绍过了,VSP前端控制器最小可支持一对(两个)VSD控制器组,最大扩展至4对(8个)控制器组,对性能提升起到直接关键的作用。但另外一方面,HDS的老一代高端产品USP同样能够实现控制器的扩展,那么新版VSP的横向扩展优势又体现在哪里呢?
原来,上一代高端系统USP的控制器扩展只能局限在一个机柜中,VSP则能够通过一个专有的控制器交换背板,最大扩展到2个控制器机柜,一共8个前端控制器。实际上,在上一代的USP系统中,并不存在单独的控制器机柜,控制器、缓存和后端磁盘是紧密结合在一起的,而VSP则拥有了独立的控制器机柜,和后端独立的存储机柜,在扩展方面的空间的确灵活了很多。
▲
新一代VSP控制器与存储单元完全独立出来,拥有独立的控制器机柜,图为VSP的控制器机柜。中间的四组分别为控制器模块,上下则分别是内存模块。控制器模块必须成对出现,每个控制器机柜最多扩展2对。但VSP可通过专用的控制器扩展背板与其他的控制器机柜联系,最大扩展2个控制器机柜,达到4对8个控制器模块
另外一个维度扩展则是传统的纵向扩展(scale up),指传统的存储容量空间扩展的模式,客户可在存储空间机柜中增加磁盘组,获得容量空间的提升。
在内部存储扩容方面,客户可以有多种选择,最多可支持6个机架。且提供最多256个STEC SSD支持,200GB 2.5寸或400GB 3.5寸规格均可。客户可最多安装2048个SAS2.5寸硬盘(存储容量为1.2PB)或1280个SATA3.5寸硬盘(存储容量为2.5PB)。SAS硬盘的能耗要求比3.5寸硬盘相对要低一些,且IOPS比3.5寸硬盘更高一些。客户还可以配备磁盘组,每组最多可安装40个3.5寸硬盘或64个2.5寸硬盘。
▲
图为VSP的磁盘柜,不同的磁盘组通过菊花链与控制器链接,与传统的USP无异,单一机柜中可支持SSD与SAS/SATA磁盘混插,但在单一的磁盘柜中,2.5寸盘和3.5寸盘不能混插,用户可购买不同规格的磁盘柜,分别用于2.5英寸磁盘和3.5英寸磁盘
此外,VSP的第三维扩展模式纵深扩展则是HDS所独有的,意即通过基于磁盘控制器的存储虚拟化技术,VSP能够管理外接的其他厂商的存储系统。不过这一功能在VSP的上一代高端存储USP上已经实现,并不能算真正意义上的新功能。
EMC Vplex跨地虚拟存储:
Vplex与EMC原有的虚拟化产品Invista以及其他厂商虚拟化解决方案截然不同的一点就在于,Vplex可实现远距离的数据中心迁移,也就是支持虚拟机在两个至少相距10公里之外的数据中心之间进行灵活地迁移,根据EMC的介绍,如果在通过VPLEX整合的存储上来进行Long Distance vMotion的话,不仅在速度上表现不错,在吞吐量上也表现惊人。
支持Vplex远距离虚拟漂移的核心技术则是分布式缓存技术,这一技术主要来自于三年前被EMC收购的名为”YottaYotta“的小公司,从Vplex目前的产品演示来看,这套技术的整套代码已经从之前的私有操作系统完全迁移到Linux上,而且其中最核心的就是分布式一致性缓存技术(Distributed Cache Coherenece),也是其之所以能实现”active-active“模式,能实现跨主机、跨集群、跨数据中心的访问和在节点之间同步镜像,并克服延迟,带宽和连贯性方面的挑战的原因。
分布式一致性缓存技术在实现上面,并没有强求所有的Cache都保持统一的这种常见做法,而是基于目录形式来跟踪细小的内存块并降低了锁的粒度来加强扩展能力。
而且由于VPlex所支持的很多用例都有一个特点,单一写(Single Writer),也就是在任何时间一块Block只有一个主机会进行写操作,所以在同步问题方面简化了很多,比如vMotion,vMotion是一个原子操作,在迁移一台虚拟机之前,只会有一台主机访问和这台虚拟机相关的一系列Block,当迁移完成之后,另一台主机会接管相关的读写工作,所以在同一时间内,一个虚拟机的Block只会被一个主机访问。
VPLEX的技术核心是“分布式缓存一致性”,下图则是“分布式缓存一致性”技术的工作机制示意:正是因为这项核心技术优势,使得VPLEX方案和目前所有厂商的虚拟化方案截然不同,并能够实现异地的数据中心整合。对跨数据中心的所有负载实现跨引擎的平摊或者实时迁移,来自任何一个主机的I/O请求可以通过任何一个引擎得到响应。
缓存一致性的记录目录使用少量的元数据,记录下哪个数据块属于哪个引擎更新的,以及在何时更新过,并通过4K大小的数据块告诉在集群中的所有其他的引擎。在整个过程中实际发生的沟通过程,远远比实际上正在更新数据块少很多。
▲
分布式缓存一致性数据流示意图:上方是一个目录,记录下左侧的主机读取缓存A的操作,并分发给所有引擎,右侧主机需要读取该数据块时,会先通过目录查询,确定该数据块所属的引擎位置,读取请求会直接发送给引擎,并直接从数据块所在的缓存上读取。
当一个读请求进入时,VPLEX会自动检查目录,查找该数据块所属的引擎,一旦确定该数据块所属的引擎位置,读的请求会直接发送给该引擎。一旦一个写入动作完成,并且目录表被修改,这时另一个读请求从另一个引擎过来,VPLEX会检查目录,并且直接从该引擎的缓存上读取。如果该数据仍然在缓存上,则完全没必要去磁盘上读取。
▲
如上图,来自图中左侧主机的操作,由Cache A服务,会记录一个更新状态,并分发给所有所有引擎知道。如果读取的需求来自最右侧的服务器,首先通过目录查询。通过这种技术可以实现所有引擎一致性工作,而且这个技术不仅可以跨引擎还可以跨VPLEX集群,而VPLEX集群可以跨区域,因此缓存一致性也可以跨区域部署。
分布式缓存一致性技术使VPLEX相比传统的虚拟化方案拥有更高的性能和可靠性,并实现异地数据中心的虚拟化整合
对传统的虚拟化架构来说,如果虚拟化的I/O集群中有一个节点坏了,那么性能就会降低一半,而且实际情况降低不止一半。因为坏了一个节点,这个节点缓存一般会被写进去。因为没有缓存,操作会直接写到硬盘里。如果图中中心这个节点坏掉,那主机所有的可用性都没有了。而VPLEX如果有一个引擎或者一个控制器坏掉了,那这个引擎的负载会均摊到其他活动引擎上。这样总体来讲用户可以维持可预知性能,性能降低也不那么明显。
IBM Storwize V7000中端存储系统
IBM Storwize V7000是IBM今年10月份在西安信息架构高峰论坛暨全新存储解决方案发布会上推出的一款中端阵列,Storwize V7000全部由IBM自主研发,一经推出,受到各方的极大关注。
Storwize V7000是一个双控制器阵列,每个控制器都利用了一个四核Jasper Forest(Nehalem)处理器来驱动虚拟化的三级后端存储,后端采用了SAS连接。
▲
IBM Storwize V7000现场展示
此外,该系统还提供了SVC(SAN Volume Controller)代码堆栈,以及重复数据删除、存储资源随需分配、虚拟化和数据保护等功能。在这个平台上IBM添加了XIV GUI和DS8000 RAID以及EasyTier功能,使得V7000的使用界面如XIV一样简单易用,同样,面对一些追求系统简单易用的起步型的企业,从V7000起步,同样能够很好的满足需求,并随着未来业务扩张灵活扩展。
该产品采用了SVC的思路,也就是架构内的虚拟化,这使V7000可结合IBM或第三方阵列。成为一个一体化的存储虚拟化方案。
V7000的主机接口是8Gbit/s的Fibre Channel或四个1Gbit/E的iSCSI。控制器单元是一个2U的机架机箱,其能容纳24个2.5英寸硬盘或12个3.5英寸硬盘。2.5英寸磁盘驱动器的容量分为300、450和600GB。
V7000存储层可以选择300GB的STEC固态硬盘(SSD)作为最高性能级别的介质,用于存储访问压力最大和最“热”的数据。居于中间的层次是10000转2.5英寸SAS接口的硬盘驱动器。这些驱动器都使用的是6Gbit/s SAS II接口。第三层则大容量数据存储,采用了7200转3.5英寸的SATA磁盘驱动器,用于存储一些可靠性、访问性能要求都并不十分苛刻的数据。
根据现场介绍,Storwize V系列是一个全新的产品系列,未来Storwize的Realtime Compession技术也将融入其中。尽管V系列目前只有V7000一款产品,未来还将向上和向下扩展,发展成为一条较全面和完整的产品线,届时,V系列与DS5000以及DS8000系列的市场覆盖还将进一步的重合。逐步替代DS5000也并非没有可能。IBM和LSI多年的OEM合作关系将受到冲击。
HP Storageworks P4000G2磁盘阵列
HP StorageWorks P4000 G2基于可扩展的架构和多站点SAN,实现存储阵列的Scale-Out横向扩展,适用于计算环境和存储环境的虚拟化应用。结合全新的SAN/iQ软件,该产品可通过基于网络RAID5/6功能,把存储的利用率提高达50%,有效降低存储使用空间,同时提供冗余组件和硬件RAID功能,以防止硬盘发生故障。
▲
HP StorageWorks P4000 G2产品外观
另外,借助全新的Best Practice Analyzer(非常好的实践分析器),用户可对SAN环境进行连续监控与比较,对SAN环境的优化调整提出非常好的建议;通过VSA软件,以及ProLiant刀片服务器的通用存储平台,虚拟机可获得额外的磁盘容量 ;通过集成的快照、远程拷贝和克隆功能简化数据管理,确保可靠地捕捉和恢复数据。
概括来说P4000G2一共三大特点:Scale out的扩展模式、网络RAID功能和全功能性。scale out也是P4000G2的最主要特色。传统的磁盘阵列,通常是控制器加上磁盘柜组成,每个设备有控制器,通过光纤连接到后端磁盘柜。但这种方式有一些局限,双控或者单控的配置一旦固定,后面存储的容量性能也基本就固定死了,扩展较为困难。
P4000是Scale out扩展模式,有独立的控制器、内存和网口。P4000从两个扩到四个,带宽就相当于4个控制器绑在一起的带宽,十个就是十个控制器带宽。控制器越多,带宽越多,流量就越好。不像传统的设备,两个控制器已经限制死了,限定了带宽和性能。
除了横向扩展scale out以外,P4000G2另外一个比较大的优势是网络RAID功能,可提高系统可靠性及可用性。P4000除了支持传统的硬件RAID,包括RAID0、RAID1、RAID5、RAID6等等,还增加了更高一层次的RAID,网络RAID。
一般的磁盘阵列,只能在同一个物理节点内部做RAID。如果在同一个磁盘柜里面,不同的磁盘组之间,做硬件的RAID5或者RAID6、RAID1。当发生控制器,或者因为温度、电源等其他原因宕掉了,或者磁盘坏掉了。这时所有数据就都都丢失了,这是传统的磁盘阵列RAID可用性方面比较大的劣势。网络RAID是通过网络实现。P4000定位于IP SAN,通过IP连接。只要客户有现成的网络环境,就可以连接P4000作为共享的存储资源使用。如果两个节点,挂到同一个网络中,通过网络RAID,一个节点里面的数据,就可以通过网络RAID的方式,在另外一个节点上存一个备份。整个系统的物理节点宕了以后,在另外一个物理节点上还会有一份数据在里面。
网络RAID目前支持的是RAID1、RAID0、RAID5和RAID6,当客户他对性能要求比较高的时候,建议采用网络RAID1、RAID0。网络RAID1 RAID0不足的地方在于空间利用率会降低。当客户对空间利用率要求比较高的时候,建议用网络RAID5或者网络RAID6。但是网络RAID5、网络RAID6性能和网络RAID1 RAID0相比会有20%的下降。需要用户根据应用模式和需求选择使用网络RAID1、RAID0,或网络RAID5、RAID6。
P4000G2第三大特点是全功能性。除了网络RAID功能以外,还内置了全面丰富的软件功能。包括快照,同步异步的备份、管理等等,已经全部在阵列中内置。客户只需要买一个硬件P4000,所有软件功能就不需要额外再购买许可证,没有额外的隐性投资。
Dell Equallogic PS6010磁盘阵列
Dell EqualLogic PS 6010/6510系列是Dell今年推出的最新的Equallogic系列下的新品,该产品围绕Dell端到端10Gb以太网战略,提供10Gb以太网支持以及高效的iSCSI连接方案。
Dell EqualLogic PS阵列基于虚拟化的模块化存储体系结构,使IT 管理人员可以在需要时仅购买必要的存储,有助于避免出现利用不足和过度配置的情况。Dell已经将10Gb以太网控制器引入到了EqualLogic PS6000系列存储阵列中。
相比前几个版本,新EqualLogic PS6010和PS6510可以将每端口的带宽提升10倍,将每阵列的带宽提升2.5倍。最新的10GbE EqualLogic阵列可以为Oracle和Microsoft SQL数据库应用、流视频以及带宽密集型工作负载等业务应用提供高级性能。
通过使用创新的数据移动技术,SAN 中的所有EqualLogicPS 系列阵列可协同工作,自动管理数据,平衡所有资源之间的负载以及扩展,以满足不断增长的存储需求。PS6010E 通过完全冗余和可热插拔的组件(标准双10GbE 控制器、双风扇托架、双电源和具有热备件的强大固态硬盘驱动器)提供容错功能。PS6010E 还是一款智能存储阵列,具有安装迅速、管理简单并可无缝扩展的特点,通常可在一小时内完成安装和配置并开始提供存储服务。