存储 频道

存储的角度:我们真的需要万兆以太网么

  【IT168 评论】在10Gbps的以太网出现以前,像iSCSI和NFS那样的基于IP的存储技术基本都停留在1Gbps的时代,那时2Gbps和4Gbps的光纤信道拥有至高无上的地位。现在,面对适用面广,廉价的10GbE网络硬件,许多人反而争论起来了——真是够讽刺的,世道的确是变了啊!

  当你开始认真研究它的时候,那些原始的吞吐量统计数据到底能起到多大的作用呢?10Gbps的速度给运维带来的那些好处,多个1Gbps的连接无法提供吗?要回答这些问题似乎很简单,但是又不像看上去那么简单。

  推送数据

  当然,物理法则仍然存在:使用10GbE的管道,你可以推送的数据量大约是1GbE管道的10倍。但是,让我们回过头来,用现实的眼光来看一看这些数字。

  在现实生活中,使用一个1Gbps的连接,你可以获得110MBps的iSCSI吞吐量——在配置正确,负载均衡也完美无缺的情况下,这个数字可能会翻倍。在我见过的一些10GbE测试平台上,单个连接的推送速度大约是1,150MBps。

  这比1GBps要高一些。我承认还有许多优秀的案例,但是,我们中有多少人敢说一个正常的应用程序的确需要高速地迁移这么多的数据(或者只是提供迁移这么多数据的能力)呢?我敢打赌,就算在大型的企业,政府和学术界中,这样的应用程序也是寥寥无几的。

  一般来说,你遇到的最常见的存储问题并不是对原始数据吞吐量的处理,而是对大量的,非常微小的,而且完全是随机的I/O操作的处理。对于完整的数据库应用程序来说,这些类型的负载更加常见,对于传统的旋转式磁盘来说,这些负载是最难处理的。

  这是因为磁片旋转的速度和磁头的定位速度都是有限的。最后,一个相对重量级的磁盘的IOPS(每秒I/O的次数)也许只能达到20,000 4KB IOPS,原始的吞吐量也许只能达到80MBps——一个1GbE连接已经足够用了。但是,由于磁盘延迟的限制,同样的负载可能需要高于110 15K RPM的磁盘。对于这些类型的负载来说,存储的瓶颈通常是磁盘子系统本身,而不是存储设备之间的互联速度。

  可以肯定的是,如果可以把当前的磁盘全部替换成超高速的SSD,那么瓶颈又会变成存储设备之间的互联速度,甚至是服务器本身。但是现在,SSD那高昂的价格,以及相对较低的容量,导致它们很难引起的大家的注意(除了那些需要使用最高端的事务处理程序的人和那些预算十分充足的人)。如果你要把当前的磁盘全部替换成超高速的SSD,那么10GbE的互联速度才是必须的,因为只有这样才能完全发挥出它的潜力。

  否则,除了特定用途的应用程序(例如:高码率的视频和图像应用程序)以外,在生产环境下,你很少能看到磁盘负载可以“吃掉”10GbE带宽的情况。但是,有一个重要的领域需要特别说明一下,那就是:备份。为了保护我们日益增长的,堆积如山的数据,我们要不断地进行备份。

  不像数据库应用程序,备份通常会持续不断地迁移大量的数据——通常迁移到高性能的磁带驱动器,它们可以很轻松地承受高于1Gbps的连续吞吐量。如果你需要在一个夜间备份窗口中备份几十个TB的数据,那么,并行地运行大量的磁带驱动器也许是实现这个目标的唯一方法。如果你采取了这种方法,并且不考虑其他因素的话,那么只有10GbE的互联速度才可以确保你的SAN能够满足你的备份设备的需要。

0
相关文章