存储 频道

SSD在哪落户:存储阵列还是直连存储

  数据中心中的固态硬盘

  数据中心通常由装在独立机柜的服务器和存储系统构建而成(图2)。共享存储系统可解决很多问题,特别是当工作负载在服务器之间转移时,这是由于数据访问任务平均分配给了所有服务器。另一方面,直接安装到服务器中的存储系统越多,必须经过网络传送的存储请求数量就越少。

  若使用速度更快的存储系统,网络两端都能得益。存储阵列逐渐使用“分层”存储,在这种环境下,存储阵列用不同速度级别和成本的存储设备来构建。在图1中,最左边代表磁带和HDD的两个椭圆形可以被分为第1层、第2层和第3层。磁带用于第3层,高容量HHD用于第2层,企业级HHD用于第1层。存储阵列把I/O请求最频繁或称为“热”的数据存储在第1层,把很少使用或称为“冷”的数据存储在第3层。阵列中的软件负责管理这些层之间的数据,为“热”数据分配速度较快的存储系统,而把“冷”数据放到较低的存储层上。

  SSD出现在存储阵列中后,一个新的层(称为第0层,Tier 0)将应用于这些设备上。SSD的优势在于,它已经很适合现有的管理模式,并且将存储阵列的性能带到了一个新的层面。

  EMC公司是第一家广泛支持存储阵列中使用SSD的厂商,2008年年初即宣布了在Symmetrix系统中使用第0层存储。该系统使用了STEC公司的超高速ZeusIOPS光纤通道SSD。

  几个月后,IBM公司推出了其DS8000存储系统的升级版本,这款产品基于Fusion-io公司的IOdrive PCIe SSD,可提供高达100万IOPS。

  戴尔公司将其存储层命名为“池”(pool),第1池由SSD组成,第2池由企业级HDD组成,以此类推。其他公司也推出了类似产品,有些甚至在EMC之前就推出了,只是它们没有那么高的知名度罢了。

  加快存储阵列速度存在的一个困难是,从服务器到阵列的所有数据访问还是会受到网络延迟的影响;而在某些情况下,这种延迟令人无法接受。在这种情况下,数据中心的管理人员经常使用两种方法,一是添加DRAM高速缓存,从存储阵列复制数据;或者安装额外服务器,每一台服务器用来存储及操作一部分工作负载。但这两种方法都需要高昂的成本。

  OEM厂商及其客户发现,如果为服务器添加SSD,就能减少对DRAM的需求,有时甚至减少所用服务器的数量。这不仅带来了尽量少占场地、节省电力/冷却成本的好处,还往往会带来另一个潜在的好处,即减少软件许可的成本,因为软件许可常常与处理器数量密切相关。

  Sun公司很早就在其服务器中采用了SSD。最初用的是英特尔的SSD,后来推出了可以插入到服务器或专用固态存储板的开放标准SATA模块。这种模块基于供笔记本电脑DRAM使用的JEDEC标准SO-DIMM规格。Sun还宣布了其ZFS文件系统的升级版本,不需要管理员的干预,就能自动管理“热”数据和“冷”数据。

  在过去几年中,大多数其他服务器OEM厂商在基于标准SATA SSD的系统中采用了SSD选件;而有些厂商更进一步添加了像Fusion-io公司的IOdrive这样的设备,因而需要对系统进行重新配置。不过,SATA SSD最常见,尽管它们的带宽受到SATA接口的限制。

  两种方式共存?

  Objective Analysis公司对此并没有倾向于哪种拓扑结构。直接连接的SSD存储系统在减少网络流量方面表现很出色,但影响数据共享。存储阵列中的SSD可以大幅度减少网络延迟,可数据传输仍会受制于网络开销。哪种选择非常好的—这在很大程度上取决于工作负载的类型。

  从长远来看,随着SSD日益普及(预计最快三年内会出现这一幕),许多数据中心会采用混合方法,把SSD同时添加到存储阵列和服务器中。两者可以共同减少网络流量,缩短响应时间,这样就能获得速度更快的系统,不但所用硬件成本更低、所占场地更小,耗电量也更少。

  加州理工大学的Carver Mead教授所说的一番话很适合这种情况。他表示,网络通道所需要的带宽与网络两端的智能水平成反比。许多数据中心的管理人员会发现,若通过利用SSD来增加网络任何一端的智能,自己面临的挑战会从原来的网络延迟问题转移到计算瓶颈的其他部分。

0
相关文章