数据中心 机房占比?数据中心交换机
数据中心PUE值是什么 数据中心PUE值研究介绍【详解】
目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1,表示一个数据中心的绿色化程度越高。
随着电子信息系统机房IT设备高密度的集成化,解决设备散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。而根据研究显示,IT/电信目前相关的碳排放已经成为最大的温室气体排放源之一,由此一年产生的碳排放为8.6亿吨,且该领域的排放势头还在随着全球对计算、数据存储和通信技术需求的增长快速上升。即使人们大力提高设备、机房结构等装置和数据中心的能效,到2020年,全球IT相关碳排放也将达到15.4亿吨。所以越来越多的人开始关注绿色机房的建设。
目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1,表示一个数据中心的绿色化程度越高。当前,国外先进的数据中心机房PUE值通常小于2,而我国的大多数数据中心的PUE值在2-3之间。所以国内机房内芯片级主设备1W的功耗会导致总体耗电量达到2-3W,而国外机房内芯片级主设备1W的功耗只会导致总体耗电量为2W以下。
机房建设前期的设计和规划就把节能、环保考虑到,并在设计和规划的过程中达到机房的使用要求的前提下,把机房的PUE值作为机房的设计和规划要求。用户对PUE值的要求,机房设计满足并说明从几方面可以把机房的设计达到用户的要求。
根据统计数据显示,数据中心的冷却占机房总功耗的40%左右。机房中的冷却主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。
由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其中服务器、存储、网络等主设备占到设备散热量的80%。所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。服务器设备热密度越来越大。机房下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。可是高密度机柜从机柜前面的地板出风口出风。当冷风送至机柜的中部冷风已经被服务器全部吸收。所以,机柜的上半部分没有足够的冷量,就会导致机柜上半部分的设备无法正常运行。
现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上。原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求。
上述的问题解决。机房在设计中静电地板高度的提升,地板出风口的通风率的提高,封闭机柜冷通道。还可以在用风道上送风和地板下送风结合制冷等方式进行解决。
机房空调的冷量不浪费,有效的利用可以很大的提高空调的利用率。在实现机房制冷的前提下空调运行也可以节能。通过空调系统一系列的优化,可以降低整个机房的PUE值。
然而,空调本身的耗电量是最主要的。所以解决空调自身的耗电量成本降低空调能耗的关键。机房中采用传统的风冷制冷方式是最耗电的运行方式。在大的IDC中现在基本上都采用水冷式的机房空调系统,比风冷系统节能20%左右。
但是,我们可以在通过新的空调技术还可以比水冷空调在节能30%以上的空调系统(非电空调)。
非电空调俗称溴化锂空调、吸收式制冷机、燃气空调等,其工作原理是通过采用天然气、城市煤气、发电废热、工业废热、工业废水、太阳能、沼气等任何能产生80℃以上的热能为动力、以溴化锂为冷媒进行热交换,从而降低空调循环水温度,达到制冷目的;但“非电”只是空调本身的制冷不直接用电来运作,但是支持空调运作的后方机组,比如说,风机、水泵、冷却塔都是需要耗电的。
但相对于直接用电来制冷和制热,非电空调对电力的消耗非常小。所以这种非电技术的意思是,我们无法杜绝用电,但是可以做到大幅度节约用电。
非电空调制冷原理:就是利用溴化锂溶液实现的,即水和溴化锂的二介介质,由于沸点不同而且具有吸水性的原因当加热溴化锂溶液时,水被蒸发,蒸发的水流入蒸发器内蒸发吸热,然后蒸汽被冷凝,再次与溴化锂混合成为溶液。这些过程中,它被热源加热,然后通过蒸发将需要冷却的一端冷却了,同时冷凝的热量通过室外的冷却塔冷却或送到室内制热等。这样就实现了用热制冷。
所谓非电技术,就是采用直接由热能来制冷的原理。传统意义上的电空调,要完成制冷效果,必须由热能到机械能、由机械能到电能、再由电能回到机械能,最后才能到冷能,这其中5次能量转换过程都将排出一定数量的二氧化碳。因此,从理论上来说非电空调不仅节约了能源,还有效地减少了空调制冷过程中4倍的碳排放。
机房建设中空调系统通过最新的技术,我们可以把空调的能耗占整个机房总能耗的比值控制在15%左右。这样整个机房的PUE值就可以控制在2以下。
数据中心的UPS电源占机房总功耗的5%左右。而UPS自身的功率占UPS的7%左右。而且机房建设的等级越高需要UPS的数量就越多。比如:一个国标C级的机房配置一台400KVAUPS就可以满足要求,这个机房中的负载没有变化,只是等级从C级变成A级。但是,UPS就会从一台400KVA变成四台400KVA的UPS。所以解决UPS的自身功耗也是非常重要的。如果机房供电的电源质量非常好,UPS的工作方式就可以采用后备式的方式。正常工作市电通过UPS的旁路直接给负载进行供电,UPS处于备份状态。市电停电以后,直接转换成UPS电池供电模式。通过这样的方式可以节约所有UPS的自身功耗的电量。
最后,PUE无论这样变化,都是大于1的乘数因子。要做到最佳节能,降低服务器等IT设备的功耗,才是最有效的方法。比如1W的IT设备需要总功耗电量为1.6W。当降低服务器设备功耗为0.8的时候,数据中心总功耗立即降为0.8×1.6=1.28。IT设备降低了0.2,而总耗电量降低了0.32。这就是乘数因子效应。
广州电信沙溪云计算数据中心机房哪年建成的
传统IDC多数是支撑电信运营商数据业务,并有明确的跨网和区域性限制;而云计算所需要的数据中心来源于互联网,但又向集成化平台演进,有别于传统数据中心基础设施和信息系统软硬件分离的局面,云计算的数据中心从基础设施到计算与应用是连续和整体的。简单而言:IDC机房还是进行托管,使用的还是机房中的主机资源;云计算数据中心提供给用户的是服务能力或者说IT效能。二者从提供的服务最能说明差异。IDC常见的有两类,一类是托管型服务。即服务器由客户自行购买安装,期间对设备的监控和管理工作也由客户自行完成。数据中心主要提供IP接入,带宽接入和电力供应等服务。即提供服务器运行的物理环境,简写为:提供IP+宽带+电力;另一类是数据中心不仅提供管理服务,也向客户提供服务器和存储,客户无需自行购买设备就可以使用数据中心所提供的存储空间和计算环境。同时,相关IT咨询服务也可以帮助客户选择最适合的IT解决方案以优化IT管理结构。即:服务器/存储+咨询+自动化的管理和监控+IP/带宽/VPN+电力.而云计算数据中心中托管的不再是客户的设备,它是计算能力和IT可用性。简化为:IT效能托管+服务器/存储+咨询+自动化的管理和监控+IP/带宽/VPN+电力.
数据中心能耗由哪几部分构成
数据中心的能耗由以下几部分组成。
(1)IT设备。
(2)制冷系统设备。
(3)供配电系统设备。
(4)其他设备。
典型数据中心能耗构成如图所示。其中,数据中心能耗比重最大的部分为IT设备,其次为制冷系统设备、供配电系统设备及其他消耗电能的数据中心设施。
随着数据中心规模扩大及建筑体量的增大,冷水系统方案得到越来越多的应用。随之而来的是大量水资源的消耗及循环水的净化处理问题。同时,若采用蒸发冷却方案,其对清洁水的要求也越来越高。从能源利用的综合角度来看,单纯地靠PUE指标难以全面准确地评估数据中心的能耗水平,为全面合理地评价绿色数据中心工程,TGG在2009年首次提出并引入针对水利用效率评价的WUE(Water UseageEffectiveness)指标。水利用效率作为评价数据中心用水状况的指标,定义为数据中心水资源的全年消耗量与数据中心IT设备全年耗电量的比值,单位为L/kW·h。
WUE=数据中心水资源的全年消耗量/数据中心IT设备全年耗电量
目前,可采用水蒸发冷却的方法来促使制冷空调系统效率的提升,尤其在环境干燥的地区。但与此同时,PUE指标的降低也带来了水资源消耗的升高。对于采用冷水方案的工程,PUE与WUE存在一定的负相关性。这也决定了在实践应用中需要进行权衡,找到两者之间合理的平衡区间。与此对应的是,如今很多大型数据中心工程都选址在北方等气候寒冷、干燥的地区,水资源短缺也是需要考虑的重要问题。
以往人们对数据中心资源消耗的关注点往往集中在其电力消耗或燃料消耗上,认为一个数据中心只要电力指标优良,就可以认定为其为绿色数据中心;但近几十年来,全球承受着旷日持久的系统性干旱,并且随着人口的增长,工业规模的扩大,水资源消耗变得越来越紧迫,全球水资源缺乏的现状不会改变。
因此,面对水资源日趋匮乏的态势,业内也逐渐将目光转移到数据中心的水资源消耗上来;根据Uptime Institute的调查数据,数据中心平均规模大约为1MW,每年消耗的水量为26 600~30 400m³。
数据中心使用水的主要目的是散热,即利用水作为载冷工质持续带走IT设备热量。最常见的为冷冻水系统和冷却水系统,在这些系统中,冷水流经计算机机房的制冷单元;风扇吹过冷冻水散热盘管,向IT设备提供冷空气;然后水流回冷却装置中被重新冷却。冷却水系统依靠冷却塔利用水的蒸发来散发热量,利用水与空气流动接触后进行冷热交换带走热量达到蒸发散热降低水温的目的。
采用传统水冷空调系统的数据中心在运行过程中水资源的消耗主要来源于冷却塔(尤其是开式冷却塔)的运行。通常一个1MW的数据中心通过冷却塔每小时泵送约230m³的冷凝水,会有1%~2%的水被蒸发、作为细水雾被风吹走。每年大约会消耗25 400m³的水。
另外,冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘及其他污染物。这些水必须被定期处理。上述规模的数据中心每年通过排放或补水大约会消耗5000m³的水。
总体来讲,使用传统水冷方式的1MW数据中心,每年用水量大约为30 000m³,这些数据并没有将数据中心加湿系统和空调末端泄水的消耗计算在内;另外,随着时间的推移,在水冷设备上,尤其是换热器翅片或换热管上会累积水垢或杂质,在去除这些影响空调运行安全和运行效率的污垢时,常用的方法是用水冲洗并排空,这一过程也消耗了大量的水资源。
2.数据中心的主要耗水来源
采用水冷空调系统的数据中心,其耗水主要来源可概括为以下几个方面。
1)冷却水蒸发采用冷却塔制取低温冷却水时,数据中心的热量主要靠冷却水的蒸发散发到大气环境中(采用干式冷却器的系统主要依靠空气与冷却水的对流换热,但其效率低,占地面积较大,且对气候条件的要求较为苛刻),水蒸发损失为数据中心水资源消耗的主要部分。
2)冷却水排水通常,数据中心冷却水系统的运行水温为32℃/37℃,该温度较容易滋生细菌,适宜藻类和污垢的生长及在管壁上的附着,并且需要通过冷却水排污来配合控制加药浓度,这一过程也会产生水的消耗。
3)IT房间加湿用水冬季,尤其是我国北方地区,室外环境相对湿度较低,机房内湿度受此影响需通过加湿系统维持机房内的湿度要求,需要消耗加湿用水。
4)软化水设备用水冷冻水及加湿水等闭式水系统在运行过程中由于泄漏、排水会造成一定的损失,为保证运行安全及系统压力,需要及时补充软化水,通过软化水设备对市政补水处理后补充到系统中。
5)设备维护用水系统运行过程中,冲洗、管道压力测试等需要的用水。
6)柴发系统运行及维护用水此部分为柴发机组排烟净化及机组冷却用水,这部分水资源消耗所占比例较小。此外,季节不同,数据中心各项用水比例会发生明显变化。
WUE指标目前还没有被广泛用于工业中,并且很少被引用,但水已经成为数据中心十分显著的因素,未来水资源利用效率一定会进入PUE度量工作中。