单片架构
EMC DMX高层架构
单片阵列使用共享的高速缓存架构来连接前端存储端口和后端磁盘。这在本文图表所显示的架构中可以显示得很清楚。这张图显示了EMC DMX和日立USP存储阵列的内部连接。每个记忆体单元连接到每个前端导向器和后端磁盘导向器。日立将高速缓存分成两个部分,分别针对阵列中的集群1和集群2;EMC有多达8个高速缓存模块。这种架构有自己的优缺点。首先,将导向器连接到所有高速缓存模块确保了资源不会分散。除非高速缓存完全耗尽,否则总有到另一个高速缓存模块的连接来处理用户请求。同时,用户请求是来自哪个端口也无所谓;高速缓存模块可以处理从任意端口到任意后端磁盘的请求。这种连接方式在故障复原上有自己的优势。例如,如果一个高速缓存模块发生故障,那么只有这个模块上的高速缓存丢失;在完全部署的架构中,整体高速缓存数量会下降(在EMC的架构中会下降八分之一),但是前端和后端连接仍将保持原状。在这种模式下,我们可以配对存储端口,并从1个或多个端口中提供单个LUN而不影响性能。存储端口和磁盘适配器之间的通道长度将始终是一致的。
这种任意-到-任意的模式也有自己的劣势。连接方式过于复杂,因此系统比较昂贵,需要各种开销来管理和控制各种组件之间的互动。此外,这种架构实际的可扩展性也有限。如果架构有8个FE(前端)、BE(后端)和高速缓存模块,那么这个架构会有128个连接(8×8x2)。增加一个高速缓存模块就需要增加16个连接;同样地,增加更多的前端或后端导向器也需要更多的连接。同时,单片阵列采用的是专门的组件和设计,这增加了持续维护和硬件扩展的成本。
另外需要注意的一点是,前端和后端导向器有自己的处理器。导向器的传输量可能是不平衡的,一些处理器可能需要处理比其他处理器更多的工作量。我看到在一些设置中,USP V FED端口由于数据块比较小而达到100%的处理器使用率。这意味着在刚开始主机设置的时候需要人工的负载均衡,同时随着传输负荷的增加也需要人工干预。我们需要注意的是,随着我们的环境变得越来越虚拟化和更多的虚拟机被创建,主机端口使用率可能会随着时间推移而大幅波动。
▲
日立USP高层架构
现在,DMX平台已经被VMAX平台所取代。看起来,日立是唯一还继续走单片架构这条路的厂商。下次,我将讨论多节点阵列是否有可能被现在的单片设备所取代。