现在,许多关于数据中心功率低下的论题首要集中在未充分利用的服务器上面。2012年,闻名的纽约时报在文章中谈到了低下的服务器利用率,以及发电机尾气污染;今年早些时候斯坦福大学研讨泄漏,数据中心的未充分利用的冷却问题愈加广泛。
而这些都是重要的问题。据斯坦福大学的研讨发现,价值约300亿美元的1000万台服务器在世界各地的数据中心毫无意义地工作,别的,数据中心的冷却体系也是一个巨大的能耗源头,冷却体系耗费的电能占数据中心能耗总量的一多半。
尽管网络规划的数据中心运营商(如谷歌,Facebook或微软公司)都在论述自己的超级高效规划的长处,得到了新闻界的许多重视,一般被忽视的事实是,这些公司只占全球数据中心总脚印的一小部分。
大学的学校数据中心、中小型企业数据中心、当地政府的数据中心设备,以及其他相似的设备,这些安排的数据中心包容了全球大部分的IT设备,其动力耗费占数据中心职业动力耗费总量的大部分。
这些数据中心的冷却体系一般功率较低,或许是由于数据中心的运营团队没有得到升级其基础设备的资金和资源,或许他们并没有感受到削减动力耗费的压力。
数据中心工程企业FutureResource工程公司找到了一个进步数据中心功率的办法,为40个数据中心一年节省超越24万千瓦时的电能。其大部分的技能改进是对数据中心冷却体系的改进。而这些数据中心设备的空间从5000平方英尺到95000平方英尺不等。
数据中心具有太多的冷却才能,是能耗的最大元凶巨恶。FRE公司数据中心工程部主任蒂姆•赫辰福德说,“数据中心仍然过冷,许多客户必定了解他们的数据中心过冷,也知道应该怎样采纳办法,但他们没有时间或资源进行改进。”
一般有两种原因过冷:冷却冗余和热门。这二者都能够选用恰当的空气办理体系来解决问题。“数据中心过冷是由于没有进行杰出的空气办理。”劳伦斯伯克利国家实验室的高新技能集团的项目司理马格努斯•哈林表示。
由于数据中心牢靠性与动力功率相比有着更强的重要性,许多数据中心的冗余冷却体系都是为其悉数负荷部署的。经过恰当的操控和IT负载的实践冷却需求,能够在待机形式下坚持冷却设备冗余,而当损失一些首要才能或负载添加时,主动敞开。
但是,大多数较小的数据中心并不具有操控体系,做不到这一点。“在较小的数据中心,空气办理并没有得到广泛使用。”哈林说。较小的数据中心功率普遍较低,人们已经认识到这一问题。美国动力部在全国各地的许多实验室之一的劳伦斯伯克利国家实验室越来越重视这一细分职业。“咱们需求了解这些状况,并为更小的数据中心供给适宜的解决方案。”他说。
过度冷却也是消除热门一个十分低效的办法。这是由于某些服务器运转的比其他服务器更热,而运营商为机房供给满足的冷空气,以保证这些少量服务器正常运转。“这意味着数据中心的其余部分温度也是相同的低。”哈林说。
另一个常见问题是冷热空气之间的别离较差。假如没有恰当的遏止或与导向不良的气流,热废气与冷空气混合,导致需求泵送更多的冷空气,使整体温度到达适宜的水平。而可能会导致另一种状况发作:冷空气终究会被吸入到冷却体系中,而不是被引导到IT设备,而在需求冷空气的当地却得到了用热空气。
尽管谷歌运用人工智能技能来榨取其数据中心基础设备的每一点电能,而许多较小的数据中心却连根本的空气办理功用都没有。Facebook公司或微软公司的数据中心为其使用供给电能,并建立了十分有用的设备,哈林说,“但这并不代表大部分数据中心的电力耗费都是如此。而更多的能耗都是那些规划小得多的数据中心形成的。“
伦纳德•马克思是一家专心于动力功率的工程企业Clearesult公司事务开展司理,他以为,几乎没有哪个公司会拥有完美高效的数据中心,由于那些办理数据中心的职工很少关怀电费帐单。由于他们奉行“假如只需数据中心设备没有损坏,就不要修补”的准则。
能够了解的是,数据中心司理的首要任务就是保证其牢靠性,经过冗余装备建立更牢靠的体系,但这么做将形成数据中心功率低下。而这个体系尽管牢靠,但功率低下,这与数据中心司理不担任动力成本是有联系的,他们一般几乎没有动力和愿望去改进这种状况。而在安排中,假如对动力耗费和动力糟蹋没有更多的重视的话,那么这种动力糟蹋的问题将在数据中心职业将继续存在,不管相似于Facebook公司的数据中心多么高效,这都杯水车薪。