存储 频道

Amy Deng:存储内存解决数据供给问题

  【IT168 资讯】目前所有的各个企业,每天都在数据中间努力地寻找有用的信息,并将这些有用的信息,提供给自己的业务部门以促进利润和业务的持续增长。在这个时候,就会遇到很多挑战。也许遇到的第一个挑战,就是数据的爆发性的增长,同时有各大的我们的连接束同时来到达的连接束也是飞速增长的,数据中心需要提供这样的理连接,要求处理数据的速度也是极具增长的,如果这些要求在极具增长的时候,服务器却不能高负载的运载,而在六分之一的时间,都处于空闲的时候。

NAND闪存技术实现数据中心效率最大化
Fusion-io全球客户主管 Amy Deng

  实际上这样就是在浪费我们的能源、金钱和时间。在传统的系统中,我们碰到了如下的缺陷,比如说硬盘太慢,而且硬盘容量有限,同时我要扩展系统,成本非常的高昂。怎么样让我们的存储变得更快一点。目前据统计数据来说,60%以上的服务器CPU都跑在30%的负载,这样的服务器是不能跟上服务的需求的。

  全球各个地方都有一些超大规模的一些数据中心,这些数据中心让数据在全速的方向下运行,提高更大的效率,但是这种效率到底能维持多久呢?如果停止运行了,我们的能源还能支持多少个大型数据中心?

  传统的数据集中式的机构中间,数据处理需要经过一个什么样的食物链呢?,当应用发出一个数据请求,主机CPU通过网络接口,通过网络切换机到达目标网络接口,然后才能达到硬盘和存储设备。或者是硬盘,或者是ICCD为主的存储设备,然后再沿原路返回,CPU才能得到数据。

  这个使CPU的反映时间达到了纳秒级,这这样产生的一个巨大的落差,就使得CPU在60%以上的时间都是处于闲置和等待的状况,这个也是目前资源的一个巨大浪费。这是刚刚讲的在各个地区,包括在全球,甚至包括在今天中国的各个地区,在大量新建的一些超大规模的一些数据中心,如果这个数据再继续支持下去的话,我们不知道全球的能源还能支持这样的能源发展多久。

  延迟在整个数据的反映当中是相当重要的,传统数据集中化的这种高沿值实际上是大大地制约了CPU的速度,我们可以随着内存的延迟,CPU在每秒的交易量上能够得到一个巨大的提升。今天随着闪存技术的发展,PCIE技术的发展,以及各个可以编程软件的发展下,给我们提供了一个新的产品。闪存技术的发展,使得所有数据的响应时间从毫秒级缩短到的微妙级,而且闪存的这个集成提供了一个非常大的效率,而且在断电的时候还可以达到数据不丢失。

  如果是还采用原来的FLASH的产品,只是放在原有的存储的设备中来取代数据,然后只是改变这种模式的话,实际上我们在存储的控制器已经成了一个巨大的瓶颈,这种原有的普通的2.5 3.5寸的方式是不能满足低延时的相应需求的,这是我们看到的一些普通的配置,将SSD放到NS中,那么我们需要把产品放再一个什么的位置当中了?其实最适合的位置放在PCIE的总线上,这种结构的方式,可以提供一个低延时和高相应时间的效果。

  磁盘的控制转换,完成一次数据读取,大概需要13步,这样的延时大概在毫米级别,如果把FLASH的产品放在服务器方面的话,当应用发出一个数据请求,通过CPU,然后再重新返回的话,这基本上只需要9步。

  可以实现的方式是把闪存放在最靠近CPU的地方,可以实现消除网络延时,不需要任何的服务器,同时在内存中的一个映射表,从数据发出请求到完成,只需要两秒,这样就可以把毫秒级别提升到微秒级别。

  我们的一个存储的架构,我们可以看到有主机的还有内存中间我们会有一个相应的桌面,然后由主机来提供对整个数据的读取和存储的控制这样的话,他给整个架构带来的好处,第一个是直接访问内存,不需要CPU的托管,第二个不需要各种协议之间的转换。

  数据的通道是可以扩展的!同时我们可以提供在SSD这里所有的产品中间最低的延时。

  这个是目前我们可以看到,在存储不断的发展中的演变,当然从最开始,从我们刚刚开始服务器我们只有一些本地的存储,第一个是性能不足,第二个难以管理。随着业务的不断发展,我们对IO的性能逐步提升,这个时候我们有了一些集中式的存储,这个是非常容易管理。我们可以不断地通过对家磁盘来满足IOS的需求。

  但是这个时候的一个弱点是当我们需要达到一定量的IOS的时候,普通的硬盘,也许需要有很多的人员来计算,为了大家IOS我们需要对方多少硬盘,同时他的占地也是非常大的。

  我们现在所提倡的是一种分散式的共享存储,这种方式是将所有的存储直接放到服务器内部,尤其是当您的数据不是特别大的话,我们可以放到靠近CPU的地方。当然你的数据量非常大的时候,这个时候我们还仍然可以选择原有的扇的结构,或者是不会经常去读取的数据。用它来做一个归档或者是存储的设施。当然不是用扇来提供性能的产品。

  这个时候我们可以他的优势,第一个是利于管理,80%的投资放在20%的经常读取的数据上面,它能够达到数据非常好的。并且可以分层和缓存。

  我们可以看到在各个网络公司或者是企业,当他们在不断发展的时候,会进行一种平行地横向式的扩张,这个时候我们可以看到我们有很多的服务器,集中式的存储也是不断地增加,今后用IO以后,我们在各个客户中间可以看到的优势第一个我们可以帮助客户实现的是服务器的整合,然后我们可以实现分享式的共享存储。

  这个就是我们提倡的在分散式的架构下,我们可以实现的一个优势,我们可以在处理时间,尤其是对活跃时间的处理时间,我们又原来的毫秒级可以降低到微秒级别,这个时候归档的数据,我们还是保证他在毫秒级的一个响应时间。

  下面我们可以看到的是一个简单的对比。这个对比,应该说是总结的目前在市场上我们可以看到的各种FLASH的一个产品的位置,这个是2.3寸或者是3.5寸的,将这个可以放在服务器的内部。但是这样的话,产生的一个产品的结果就是可以造成高延时的网络传输,同时传统的应用协议有可能在我们还没有达到这种应用极限的时候,这个时候我们的应用的协议就已经是成为了瓶颈了。

  第二种方式,我们可以看到跟我们的PCIE的产品非常类似的方式,他也是放在PCIE的卡上,但是更多的是用读的卡将这个机子连接起来的方式。这个实际上跟原有的S机存储方式并没有太大的区别,他需要很多的协议转换,并且普通的网络协议,也没有办法解决他的高延时的问题。

  我们现在看到的是本地的PCIE的闪存的产品,更多的这个产品的设计是更加的倾向于一种内存的产品,但是我们通过一个软件的产品,可以将这个产品,变成一个盘符,成为一个非常简单的快设备,从而只要是应用中间有客户,或者是他需要提供这种存储的硬盘的时候,都可以非常大的体会到我们的软件带来的优势。

  这里是我们看到的,L存储的一种跟普通的或者是传统的SSD的各种配置方式的一种比较,这个产品可以看到我们是本地的PCIE的这种设备,而且实现主机集成,非常容易地通过多快卡的方式就可以实现容量的现行扩充,而且带宽现在单卡可以达到6个BT每秒,同时他的容量目前它可以达到5个,并且我们不采用传统的控制器,所以我们的控制器可以很简单地实现软件升级的方式在去年的六月份,我们的公司就为我们的客户提供了一个升级,这个升级就使我们所有客户的带宽翻了一倍。

  现象这个是针对单词的交易,到底我们可以给客户带来多少的好处呢?我们可以看到的是,我们在美国做的一个市场调查中间有超过70%的客户,可以实现50%的延时的消减。还有一些是在ORICO的可混,很简单他们就可以实现一个六倍的性能提升,我们说的这个提升其实是一个非常简单的的方式,因为并不是在这些数据库当中去进行非常长的规划以后,才能达到这个效果,这个客户只需要把卡插到他们的数据库当中,将某一些热点数据放在LO数据热点上面,就可以通过非但地实现六倍的新能提升。同时还有一些其他的客户都可以提升他们的40倍到60倍的提升。

0
相关文章