数据中心机房冷却方式|站内资讯|机房空调 - 精密空调网

机房空调 - 精密空调网 企业信息化建设一站式服务平台 精密空调配件 列间机房空调
 
当前位置: 首页 » 资讯 » 站内资讯 » 正文

数据中心机房冷却方式

放大字体  缩小字体 发布日期:2017-10-19  浏览次数:259
核心提示:坚持最佳工作温度对许多数据中心来说是一个应战,当数据中心没有得到正确冷却时,IT设备可能会过热,过热可能会下降服务器功用或损坏硬件,因而,办理空气流量对功用,本钱和动力功率有重大影响。
坚持最佳工作温度对许多数据中心来说是一个应战,当数据中心没有得到正确冷却时,IT设备可能会过热,过热可能会下降服务器功用或损坏硬件,因而,办理空气流量对功用,本钱和动力功率有重大影响。企业都十分重视数据中心冷却失效后的温升问题,确保数据中心的在线运营是一项很大的本钱支出,并且绝不答应无计划的停电,更不答应呈现单点故障,下面看看数据中心机房几种冷却方法,以及冷却失效对机房温升有多大影响!
为坚持稳定的室内温度需求全年为之降温,由此带来了巨额的耗电量和电费,在节能减排和下降运营本钱的两层压力,迫使人们不断地研制新的节能技能和产品,经过进步运转温度,运用环境空气和针对性的空气进行冷却,而不再是将整个数据中心降到不必要的低温,终究完成节省动力的目的。
数据中心机房几种冷却方法
1、免费冷却
更高的运转温度一般也会让免费冷却体系一同获益。在ASHRAE 90.1-2010指导文件中,免费冷却几乎是一项节省动力的强制要求,必将被遍及运用。节能改造的本钱投入会部分地抵消运营本钱节省的优点。但在改造或升级的一起完成免费冷却也是技能和出资上的应战。估计未来两年内将呈现新的规范,使免费冷却更具可行性。挨近水源的免费冷却将可能会更具优势,但我们将会看到更多相似日本Kyoto Wheel的空气冷却事例。终究,数据中心运营商将能够在超出曾经估计的更多气候条件下选用免费冷却办法,这部分是因为更高运转温度的奉献。
2、密封冷却
密封办法也无法解决因为过错的冷却规划、空气活动不充沛或冷却才能引起的过热问题。最新的国家防火协会商业规范(NFPA-75)可能会使密封冷却的计划更难完成。对喷淋和(或)气体救活体系的改造将大大增加本钱。除了要尽力防止过错的施行外,日常优化也很重要:在未运用的机架空间一定要设备盲板,架空地板上的孔洞要及时封堵,地板下面影响通风的线缆也要做好整理。
3、后门冷却器
被人们承受的程度也十分高,部分也是因为水冷方法重新遭到重视。如果将巨大的机房空调体系撤销,改用靠近设备的新式冷却方法的话,信任数据中心职业会运转得比现在更好。教育布景和期望异乎寻常的个人志愿或许会促生新事例,但本钱和电源可用性的对立将决议终究成果。
4、蒸腾或绝热冷却
尽管运用蒸腾方法制冷的科学原理简略,并正在逐步流行,但它关于大多数数据中心操作人员而言依然显得别致。绝热冷却经过下降关闭环境中的某种物质运转的压力来完成冷却,让这些物质欢腾好像岩浆涌上火山外表,一起用风带走山峰上的高温。绝热冷却在温暖、枯燥的气候中依然有用,这大大拓宽了一年中能够“免费冷却”的有用期。其主要的缺陷是用水量有些多,但在平等冷却量的状况下,它所需的冷却水依然比规范冷却塔要少许多。
5、紧耦合或热源冷却
紧耦合冷却方法经过靠近热源来完成更有用的运作。这不算什么新东西——问问老的大型机操作员或任何笔记本电脑规划人员就知道了。尽管紧耦合冷却在数据中心里面仍是“干流”,可是更新的方法在满足动力功率的需求方面往往做得更好,并获取更多重视。它的工作方法很简略:耗费动力来将许多的空气吹入地板下的空间或者导风管,然后又将这些空气拉回至空调。
更有出路的技能包含浸入式冷却:将服务器整个浸泡在矿物油里,以便运用最少的能耗取得极高的冷却功率。可是技能人员需求对表里布满了石油的服务器进行处理时,心里会怎么想?显着这种冷却方法并不是适合一切场景。
6、更高的运转温度
美国供暖、制冷和空调工程师协会(ASHRAE)在2008年就第一次宣布了关于较高温度数据中心的主张,但并未引起留意。服务器不需求冷藏。即便进口空气温度到达华氏75到80°F(摄氏25至27°C),这些设备依然能坚持杰出运作。服务器制造商实际上现已扩展了产品的运转温度规模,并且旧设备其实也和新设备一样能够在扩展的温度区间内运转。进步运转温度能够大幅度节省动力耗费,但人们首要需求认可这种处理方法,然后赞同让热通道变得更热——想像一下100°F (38°C)的温度怎样?这会影响后门冷却器的应用和遍及。
7、烟囱式机柜和天花板风道
运用天花板上方的空间构成的风道将空气传输给机房空调体系,确保回风以最高的温度回来空调冷却盘管,能够显著增加精细空调体系的冷却才能。结合了吊顶风道和热通道办法的终究设备方法就是烟囱式机柜,能够取得最大的冷却功率。来自服务器群的高温废气从机柜后部的烟囱排出,然后直接经过吊顶天花板上方的风道回到空调设备中。整个进程中热空气和冷空气坚持别离,所以能够坚持很高的能效比。
尽管作用显着,可是烟囱式机柜并没有取得大力推广或被广泛承受。这可能是因为全密封式的规划灵活性更好,能够运用更多的机柜完成相同的作用。但是,烟囱式机柜能够让整个房间坚持冷通道温度,让工作环境变得愈加舒适。
直接、直接天然冷却
数据中心运用天然冷源进行制冷的解决计划主要有直接天然冷却和直接天然冷却两种方法。机房空调一年四季都需求制冷,过渡时节室外温度低于室内温度时,天然界存在着丰厚的冷源,怎么运用大天然的冷源进行冷却是机房空调节能减排的要点问题。
1、直接天然冷却
(1)全新风天然冷却
直接引进室外新风、合作冷热通道阻隔完成机房制冷,针对不同区域的气候条件,新风进入机房前需求经过过滤、加湿、除湿、送回风混合等预处理。
(2)鸡舍式热压天然循环风冷却
不需求机械协助,直接靠服务器发出的热能发生动力天然散热。把服务器发出的热量搜集起来,运用空气胀大后发生向上的动力,经过足够高的烟囱让热空气往上升带动空气活动,完成散热循环。
(3)转轮式热交换天然冷却
运用转轮内填料的储能功用,让转轮在两个关闭的风道内缓慢旋转,被室外空气冷却的填料冷却室内空气。
2、直接天然冷却
(1)带天然冷却节能模块的风冷式冷水机组
春秋过渡时节和晚上,当环境温度到达比冷冻水回水温度低两度或以上时,敞开天然冷却模块制冷,无紧缩机功耗,天然冷却不行的部分,再由紧缩制冷接力到达需求冷量。跟着室外环境温度下降,天然冷却部分占的比例越来越大,直至到达100%,彻底天然冷却制冷,无紧缩机功耗。
(2)水侧板换节能设备
由大型冷却塔、水冷型冷水机组、板式换热器组成,夏日选用冷水机组和冷却塔制冷,冬天选用板换将有杂质的冷却水转变为洁净的冷冻水送入空调室内机,冷水机组停机。
(3)双盘管乙二醇天然冷却
在直膨蒸腾器盘管上,再并一组冷冻水经济盘管,经过两套两通阀来调节水是经过板式热交换器的冷凝器仍是经过冷冻水盘管。室外干冷器夏日供给冷却水给板换用于直膨制冷,冬天供给冷冻水给经济盘管用于冷冻水制冷。
(4)氟泵天然冷却
在夏日,制冷紧缩机运转;当室外温度低于设定点时,主动切换为氟泵节能体系运转,中止紧缩机运转,确保全年机房空调安全可靠运转。氟泵不高于紧缩机运转功耗的10%,相关于水体系空调,无需增加防冻剂,无水患忧虑。
(5)辅佐蒸腾天然冷却
空调室外机雾化水喷淋体系将软化水进行增压后经过高速直流马达进行雾化处理,将每一滴水雾化成原水滴的体积1/500左右直接喷洒在冷凝器翅片上完成辅佐蒸腾,使得冷凝器的全体散热量增大、功耗下降。这种经过室外机雾化喷淋延长天然冷却运转时刻的方法,在枯燥气候下最为有用,如中国西部和东北部。
综上,对常见的几种天然冷却制冷方法进行归纳比较:
数据中心冷却失效对机房温升有多大影响?
经过各自的试验研讨得出了一些关于冷却失效引起的数据中心的温升曲线和根本定论,对数据中心冷却体系的不同架构进行了研讨,关于开放式的冷却体系架构给出了不同功率密度下冷却失效后服务器机柜均匀进风温度的改变曲线,在不同的功率密度下,服务器机柜均匀进风温度的温升速度不同;功率密度越大,服务器机柜均匀进风温度升高得越快。因而,关于高热密度的数据中心,有必要规划蓄冷罐来确保冷却连续性。
经过研讨数据中心冷却失效引起的机房温升问题,UI提出了冷却连续性的概念,并将数据中心冷却体系的可用性说到与供电可用性同样的高度,将数据中心的不间断供冷分为A,B,C 3个等级,并别离与高热密度、中热密度和低热密度3种功率密度的数据中心应用场景相对应。
不同功率密度下数据中心冷却失效引起的温升与时刻的联系,成果见表1(基准温度为20 ℃)。跟着单机柜功率密度的增大,冷却失效引起的温升速率逐步增大。关于功率密度为5 kW/机柜的数据中心,冷却失效引起10 ℃温升需求50 s。
将拟合联系式改写成y=0.1x×0.024x+0.027 5x+0.000 3,并对拟合联系式的多项式系数进行主因子剖析,能够发现:当功率密度(x)等于10 kW/机柜时,二次项因子为0.1×10×0.024×10=0.24,小于一次项因子0.027 5×10=0.275。当功率密度(x)小于10 kW/机柜时,一次项系数为主因子,并决议整个多项式的值,因而可简化为一次多项式,即在功率密度小于10 kW/机柜时,温升速率(y)与功率密度(x)更挨近线性联系:y=0.050 1x-0.032 5。
当功率密度(x)大于10 kW/机柜时,因为二次项系数为主因子,并决议整个多项式的值,因而温升速率(y)与功率密度(x)更挨近二次多项式联系:y=0.002 4x2+0.027 5x+0.000 3。依据多项式拟合联系式进行拟合数据外推,能够导出10~30 kW/机柜功率密度规模内的温升速率。
研讨定论各不相同,这是合理的也是正常的。首要,各自的测验环境和工况不同;其次,影响温升的因素许多,比方功率密度、冷却体系架构、机柜数量、机柜布局、机房层高、架高地板高度、乃至机柜原料都会影响数据中心冷却失效后的温升。因而,不同数据中心冷却失效后的温升状况不一样,不能混为一谈。
当时,国内研讨数据中心冷却失效引起的温升的有用手法之一是建模仿真剖析。笔者建立了数据中心的传热模型,应用数据中心专用仿真软件对数据中心冷却失效的温升进行核算剖析。
传热模型描绘
简化的数据中心传热模型,以数据机房作为一个关闭的传热体系,作如下假定:
(1)数据中心冷却体系失效,但服务器因有UPS供电而继续运转并继续发热。
(2)数据机房是一个关闭体系,只存在传热,不存在传质。
(3)服务器运转发生的热量经过以下几个途径流失:①热量被机房内的空气吸收;②经过机柜向空气传热;③经过修建围护结构向室外环境散热;④经过架高地板向地板下环境散热;⑤经过楼板向附近楼层传热。
(4)数据中心的冷热空气充沛混合。
(5)机柜前门和后门通孔率为100%,即以为机柜没有前后门。
(6)传热进程为一维稳态传热进程。
对所建模型中的一个服务器机柜的均匀进风温度进行剖析,当冷却失效后该服务器机柜的均匀进风温度曲线,在服务器机柜的均匀进风温度到达80 ℃曾经,其温度近似随时刻线性升高,这说明:在一定的功率密度下(本模型为4 kW/机柜),服务器机柜的温升速率为稳定值。这个定论与前文推导出的温升同,物理参数的不同会影响冷却失效后的温升速度,但整体趋势是呈线性改变。
 
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

免责声明:本站所有产品信息均为网络用户自行发布,如有涉及侵权信息请联系页面客服删除

  • 所有空调产品请联系
  • qq404500597
  • 404500597
  • 0755-86050606
  • 13713844398
 
0条 [查看全部]  相关评论

 
推荐图文
推荐资讯
点击排行