【IT168 专稿】“咱们国家数据中心建设从98-99年间开始,我第一次进北京电报大楼,早期的新浪搜狐服务器都是台式机,歪七竖八放着,不是机架式安装,机柜也不是标准机柜,尺寸很短,服务器的尾部都突出机柜,机房感觉很热,空调都不管用,走道还放着电风扇。机柜高低不齐大小不一, 98年国内最大的互联网门户机房就是这种情况。”世纪互联总工程师姜俊海告诉IT168记者。
▲世纪互联总工程师姜俊海
姜俊海在IDC数据中心运维经验已经超过10年,根据他的讲述,整个IDC数据中心机房对绿色节能的认识也在慢慢提高。
节能必须要做!
世纪互联从99年开始尝试IDC运营,并最早把数据中心Datacenter概念引入中国。当时对数据中心的认知就是通过机柜把服务器密集安装,并在机房中整齐排放机柜,当时单个机柜的功率大约在1.5-2千瓦左右。
数据中心的概念出现后,机房设备能耗越来越密集,耗电量很大。例如世纪互联在2000年建设的老机房,运行10年了,每月电费支出约有120万到130万,一年下来合计高达1500万。“我查过数据,03-04年左右我们一个不到4000平米的小数据中心,用电量已经在北京市排上号了,已经成为北京市的用电大户。”
世纪互联新建的数据中心,规模和03-04年比更加扩张了一个层次。例如就在世纪互联办公大楼里的M5机房,占地5000平米,容纳700个机柜;隔壁大院中还有一个容纳2000多机柜的机房;此外,世纪互联还有一个集装箱数据中心;而不久前在西安新建的数据中心则能够容纳1200个机柜。
与此同时,单个机柜的供电容量也飞速增长,以世纪互联在西安的数据中心为例,单个机柜的供电容量达到4千伏安,整个数据中心供电容量达到1万多千伏安,而之前建设的老机房供电容量仅在4千多伏安,实际用到约2千伏安左右。西安数据中心每月电耗约500-600万,年电耗在6000-7000万左右,是老数据中心的5倍。
“电费在IDC数据中心运营成本中占了很大的一块,” 作为世纪互联总工程师,可说是世纪互联机房构建与运维的总管家,姜俊海的算盘打的劈啪作响:“数据中心的成本费用里面包括电费、设备折旧、运营人员费用、维护费用(定期更换空调过滤网、电池定期更换)还有一些网络带宽的基本成本等。“从公司运营上来说,节能是必须做的事情,节能之后利润率马上提高,之前可能20%-30%的毛利润,节能之后很可能就是25%或30%多!”
节能关键点 选址很重要
从公司运营的角度看,节能必须要做,从社会责任的角度看,节能也必须做。“一个6000多平米的中型数据中心供电容量就能达到1万千伏安,和建筑面积在30多万平米的民用建筑相当,所以机房对国家电力能源的需求是很大的。”数据中心的规模还在不断扩张,对国家带来的能源压力也越来越大,所以从社会责任的角度来说,节能也是一件“功在社会”的事情。
但是数据中心节能所涉及的问题包括方方面面,需要考虑的环节也极其复杂,构建绿色数据中心究竟有哪些关键点呢?根据自己多年的数据中心规划设计和维护经验,姜俊海重点讲述了数据中心节能的一些关键要素,其中首要一点就是数据中心选址。
▲世纪互联北京M5机房及办公大楼
选址的原则简单明了,比较基本的原则可以包括两点:首先,选择气候条件适合做Freecooling的地方。所谓Freecooling,就是指利用自然环境进行数据中心冷却散热,例如我们看国外的数据中心,有时候会选择构建在海面上,甚至是极地冰川,都是希望利用自然界中的冷却力量给机房散热降温。
就中国而言,中国东北、内蒙古等地区就十分适合做Freecooling。世纪互联也正在计划在这些地方利用自然条件构建一些Freecooling数据中心。此外,世纪互联2007年构建的M5机房中所采用的水冷空调系统,也同时提供了Freecooling的散热模式,在气候条件适宜的时候,例如冬季11月-2月左右,以及一些过渡季节的晚上,比如10月中旬,夜晚温度能够降到摄氏6-7度,这个时候系统会自动开启freecooling,利用自然的冷却力量进行机房散热。
空调系统:水冷何时能普及?
机房专用的空调系统应该是恒温恒湿机房专用空调,保证温度控制在23度左右,湿度控制在45-55相对湿度之间,姜俊海介绍。
目前大多数国内机房应用的还是风冷空调,而世纪互联从2007年起就开始尝试建设水冷机房了,当时水冷机房在国内基本上没有。如今,包括北京M5机房、隔壁大院的集装箱机房以及西安的新建机房,世纪互联已经建设完成的水冷机房共有3个,而即将动工的深圳机房,也优先采用了水冷空调系统。
▲M5数据中心中使用的板式换热器
“风冷空调的能效比比较低,有些实际运营中连2都达不到,比较好的空调能效比指标能接近3。”姜俊海告诉IT168记者,能效比的概念是输入1千瓦电功率产生几千瓦的实能。“国内最早做的都是风冷空调,3-4年前几乎全是风冷空调,而美国经历了2000年的网络高潮,已经不再建设风冷数据中心,改建水冷数据中心了。”
谈到风冷系统在国内难以普及的原因,姜俊海认为可能包括以下几个方面:
“水冷空调系统复杂,维护难度高,对运维人员要求也较高,适合中大型机房建设,中小型数据中心建设水冷机房无法体现成本优势,对小型机房来说,采用如此复杂的空调系统,不仅初期购置成本增加,运维管理难度也大幅度提高。”姜俊海认为这是国内大部分数据中心采用风冷空调系统的原因之一。
此外,姜俊海谈到,2000年美国开始大规模建设水冷数据中心的时候,赶上了中国互联网泡沫破灭,所以数据中心大规模建设实际上没有真正开始,由于互联网泡沫的破灭,愿意主动建设水冷型数据中心IDC运营商实际上非常少。“当时只有小网通建设了一部分数据中心,但基本上都是风冷,水冷机房只建了一个。”
此外,一般而言水对数据中心机房设备带来一些安全隐患,国家标准要求数据中心机房必须防水,也使得大多数数据中心在决定是否采用水冷空调的问题上更加谨慎。
机房布置的三大原则
数据中心机房是多功能、多专业的系统工程,除了电子计算机系统的各类设备外,还有各类环境保障设备,只有合理的规划设备布局,才能充分发挥机房内部各子系统的运营效率。在机房布局方面,世纪互联的机房主要采用了以下一些原则:
第一、 机柜设备要面对面、背靠背摆放。早先的机房都是面向一个方向,以前从服务器出来的热空气,又会进入到下一排服务器的进风口。现在则是出风口对着出风口,进风口对着进风口。
这样做的好处显而易见:比如机房要求的标准温度一般是22摄氏度,正负不超过2度。一台服务器如果进风口气流是22摄氏度,出风口温度就达到了32摄氏度,32摄氏度的气流再进入下一排服务器进风口,就已经不能满足服务器运行的工作温度标准了,散热效率也不高,要求整体机房的送风温度非常低。
▲世纪互联机房设施规划示意图
面对面摆放后,空调送风温度22摄氏度,服务器出风口温度32摄氏度,然后就直接排走。面对面摆放的情况下,在冷通道测机房温度即可,这样就无需十分低温的空调送风即可满足国家要求,大幅度提高散热效率。
▲可调节通风率的通风地板
第二、地下送风留出风道空间。以前普通机房的地板架高都很低,一般是30-40公分,还包括了线槽的10-15公分高度,地板下走风的空间十分有限,送风不通畅、有阻碍,机房温度就不好控制。“现在我们机房的地板一般75公分以上,新的机房甚至90公分以上。地板越高,送风压力很均匀。机房要求离空调最近的机柜和机房最远的机柜,风速基本一致。地板送风风道空间越大,风速越均匀。”
第三、 机柜冷热通道封闭,真正保证冷热空气隔绝。记者在世纪互联的机房中看到,在冷通道内,冷风从地板上的小孔向上送出,冷通道的顶端有玻璃板与热区进行隔断,冷风直接从服务器进风口进入到服务器。变成热风出来后,直接在机房顶端的出风口中排除。冷热通道完全不会有任何短路融合的地方,形成了一条极其高效的冷热循环的通道。
未来的绿色集装箱式数据中心
谈到未来绿色数据中心的趋势,姜俊海认为集装箱式数据中心将成为数据中心发展的重要方向。
集装箱式数据中心的好处有很多,相比传统的数据中心,集装箱数据中心更加廉价,省去了大笔的数据中心建设费用,并更容易运输。据权威资讯机构数据显示,和具有大量空调甚至活动地板和天花板的传统数据中心相比,集装箱数据中心在设计和建造上要便宜30%。此外,根据权威专家表示,可以在4周到6周内完成生产制造,并在1天内安装调试完成;建造周期远远快于传统数据中心。并且建设的地点更加灵活,室内室外均可安装调试。
▲世纪互联云立方集装箱式数据中心
世纪互联从2002年起就开始进行集装箱式数据中心研究,是国内首家进入绿色节能领域的企业并于2003年4月取得了集装箱式数据中心专利和箱式数据中心基础设施及其集装箱式数据中心专利。
世纪互联推出的自有专利的“云立方”一体化集装箱数据中心方案内含40英尺标准集装箱高柜,9个54U机架,共486U。每个机架最大负载15KW,集装箱最大IT设备负载99KW,适用于深度不超过800mm的所有服务器。
在节能方面云立方首先通过缩短送风距离,并将空调安装于服务器机架之间,从而减少了送风过程中的冷量损失。其次采用提高冷通道温度:将冷通道温度提高到24℃,达到减少精密空调耗电量、环保节能的目的。另外冷/热通道完全隔离,可以防止冷热空气混合,减少冷量损失。
在新风系统方面也不同于传统的数据中心,一体化的集装箱数据中心仅在人员进入箱体时开启新风机,既保证了操作人员的舒适,又缩短了新风机的运行时间。在云立方内外均安装隔热保温材料,确保冬季不结露、夏季冷量不外泄。同时在云立方外表面喷涂反射隔热涂料,夏天防止太阳直射使箱体内温度升高。
人才是构建绿色数据中心的瓶颈!
PUE是电源利用效率指标,也是国内数据中心最常用的能效测试指标。PUE值的计算公式为:PUE= 机房总能耗(Total Facility Power)/IT 设施总能耗(IT Equipment Power)。目前世纪互联数据中心机房PUE普遍保持在1.5的较好的运行状态下,实际上对国内机房建设与运维的现状来说,PUE在2.0左右的机房已经是非常高效和绿色的数据中心了,大部分机房的PUE值在2.5或以上。在绿色节能方面,世纪互联已经走在了国家前列。
作为在数据中心IDC机房建设运维领域有着十多年丰富经验的老兵,姜俊海也看到国内企业在构建数据中心时遇到的一些问题和局限。
例如,由于数据中心机房的特殊要求,整个机房在建筑规范上其实和民用住宅有很大的不同。例如地板下要求有送风空间,吊顶上也需要有回风空间,实际上要求层高非常高。而且从整个建筑布局来说,柱子、大梁这些建筑结构都会对机房布置产生影响。
尽管国家有相关的数据中心机房建筑设计规范,但是对于大多数企业来说,一般并不自建机房,在租用办公大楼的情况下,就很难找到合适的场地。所以大型数据中心大多数都是按照国家机房建筑规范自建。先有内部布局,再有外部大楼的结构,而不是根据外部大楼来确定内部布局。
另外对于很多企业而言,即使是IT技术力量配备较强的企业,一般情况下有服务器专家、软件专家、存储专家等,但不一定就具备机房运维专家。机房运维专家需要了解电源、电气设备以及建筑设计规范,要求基础知识极为丰富。缺乏专业的机房运维人员,企业在选购机房组件以及在规划或者构建机房的时候,就极容易被市场左右,无法做正确的判断和规划。
“中国IDC数据中心领域目前极其缺乏机房运维人员,例如现在的IDC机房建设,往往规模在五六千平米以及上万平米规模,系统复杂性非常大,就像一个大规模的复杂工厂一样,用电量也高达上万千伏安,动辄十多个变压器,发动机也一排,还有UPS冷水机组,一般没有运行经验的人来说,很难运行起来。”
与此同时,企业的业务同时对数据中心运营管理水平提出了苛刻的要求,要求7*24小时不间断运行,高效运行、可靠运行,进一步考验了数据中心的管理和运维水平。“目前对中国的情况是,首先建数据中心可能是一个难题,紧接着就会遇到数据中心运维管理难题。大部分公司都没有这类型技术储备!”
数据中心绿色工程还任重道远!
世纪互联从95年开始自己主导设计自己的第一个机房,当时尽管姜俊海先生带领的设计团队并没有设计资质,但是所有的初步方案设计、概念设计却是在姜俊海先生的带领下,由世纪互联自己的设计团队主导完成,然后交由中标工程商去实施。
“国内很多的数据中心往往由政府出资构建,一般情况下会找电信规划设计院,或者某机房工程公司的设计科,但是这些机构并不是用户单位,无法深入的了解用户单位业务需求,在合理的经济效益下,哪个指标是必须要保证,哪些是可以放宽的,对这些问题理解都不够。”因此世纪互联选择了自主设计、自主施工的机房建设道路。
世纪互联在机房正式开工前往往会准备多套配置方案,每套方案的成本差异甚至细化到每个机柜高5%或者10%的差异,单路UPS或者双路UPS造成每个机柜造价高多少。机房究竟应该如何构建,每个环节应该遵循何种标准,在动工前都有了明确的规划。
“我们自己有项目管理团队做建设管理,包括在项目实施甚至运营过程中会发现原先的设计存在问题,有些问题还需要修正。经过几轮的反复后,设计就会越来越有经验。”而外包的设计团队则很难充分获得对设计进行验证或者修正的信息,设计团队本身就比较难积累项目经验。
此前,姜俊海就看到很多的国内企业在数据中心建设方面走弯路,机房建设工期无限期延长,甚至犯下一些无法弥补的错误,就是因为公司内部缺乏专业人员,各种市场咨询公司带来一些庞杂的信息无法做出正确的判断。例如一些企业数据中心机房建设动辄一年半、两年多的工期,有些实际上就是因为前期不合理规划造成的。“有些问题无法补救,有些问题可能需要一些教训才能慢慢补救。”
此外,大型机房构建完毕后,还需要一套完整严格的测试方法。姜俊海谈到,例如化工厂、炼油厂建完后,一般都有一整套经验,发动机连转,一大套生产系统投入使用,需要有一套复杂“开车工程”,机房也需要“开车工程”。现在机房复杂庞大,需要复杂的测试,找出问题再去纠正。
所以国内机房建设的问题:现在大部分公司都不具备这个能力,首先是没有专业人员没办法把握设计整体方向,另外再机房构建完成后,没有一套完整的测试方法,对设计方案进行验证和修改。在运维过程中设计的一些问题需要进行验证,并作为以后设计的参考,目前国内大多数数据中心都做不到。
“快速发展的行业往往是缺乏人才储备的,例如中国的建设速度很快,铁路、高速公路工程很快就能完成,因为建设历史已经长达20-30年了,各方面的技术和人才储备都已经足够充足,所以建设速度非常快,现在的数据中心建设,正像20-30年前的工程建设的情况一样,没有形成一个行业的力量,也许再过10年8年后情况会慢慢变好。”