确保高效的数据中心冷却对数据中心管理员们提出了许多挑战。但是,保护昂贵的计算硬件组件及其所支持的关键任务的操作处理无疑是至关重要的。在本文中,业界专家们将为您介绍关于如何通过利用精心设计的数据中心冷却系统,大幅节省成本,从而防止严重故障。
借助精确冷却实现节能
今天,随着数据中心操作运营温度的升高以及IT效率的不断提高,使得其中的硬件设备持续保持在恰当的温度不仅仅只是不断的为室内输送冷却空气这么简单了。数据中心需要采用更符合成本预算(及其所产生的副作用:环保)的更好的控制方法,而不是过度冷却。
即使您企业采用了包括机械制冷、加湿和密封遏制在内的一系列员工们所熟悉的技术,恰当和经济高效的冷却机架和服务器也仍然是一项复杂的任务。故而本文着重讨论了考虑成本的经济性,采用外部空气等“免费的”自然冷却方案,以节省数据中心的成本。
鉴于数据中心硬件设备在越来越高的温度下运行,数据中心所在地的气候不可能一年四季都如在北极一样寒冷。与所有的IT趋势一样,这种“免费”的方法并非没有缺憾,但却是朝着尽可能的只消耗所需能量(或者少量)的方向迈出的一大步。如何准确测量评估您企业数据中心的冷却散热需求呢?本文提出了一种借助计算流体动力学(或称为CFD)的可能性,即使在高密度的基础设施中也能识别需要冷却的区域。
该技术有助于仅在需要的地方提供冷却,以防止过度冷却。由于数据中心面临着持续降低能源成本的压力,因此考虑任何衡量方案,并最终减少冷却需求的机会都是相当重要的。
数据中心冷却要点
良好的冷却散热对于保护昂贵的计算硬件及其所支持的关键业务的处理和操作是至关重要的。在操作温度升高的情况下,大多数计算机将关闭以进行自我保护,但是,如果缺乏足够有效的冷却,最高性能的服务器可能在几秒钟内崩溃。故而企业IT部门现在不仅要考虑高效地实施冷却,而且还必须要具备“冷却穿越”(cooling ride-through)的设计,其能够在电源故障和发电机启动之间保持足够的冷却,以使关键服务器免于过热和崩溃。
近年来,数据中心的冷却领域所经历的变化远远超出了数据中心基础设施的任何其他领域,因为其必须跟上高性能硬件的快速发展的步伐。并且由于冷却系统是设施中构建和操作的最昂贵的部件,开发更有效的冷却系统已经成为整个行业的主要目标。那么,到底要如何实施冷却呢?数据中心必须像冰箱冷藏室一样的日子已经一去不复返了。过度的冷却不仅会耗费昂贵的电力成本,也是对环境不负责任和不必要的。事实上,数据中心未来的一个目标是能够在任何气候条件下实施冷却,而不需要机械制冷。
虽然今天这在某些地区已经是可以实现的了,但对于绝大多数企业而言,在未来几年仍将主要依靠机械冷却。因此,了解当前市场可用的冷却技术,每种不同方法的最佳实践方案以及冷却将如何继续发展是极其重要的。
提高操作运营温度
如果在适当的温度条件(称为“入口温度”)下输送适量的空气,现代计算设备被设计为能够进行自身的冷却。美国采暖、制冷和空调工程师学会(ASHRAE)已经确认,所有现代和传统硬件均被设计为可用于在进气温度高达27摄氏度(80.6华氏度)的情况下实施长期可靠的操作。选择该温度以提供具有最大能量效率的良好冷却。
硬件设备也可以在几天内处理和应对高达35摄氏度(95华氏度) 的操作温度条件,而不会出现故障率的明显增加。例如在部分冷却系统发生故障或异常炎热的天气情况下。能源使用量会随着风扇转速的增加而增加,但短期低效率不会抵消长期节能目标的实现。为了保险起见,许多数据中心设计者和管理人员选择在大约24摄氏度(75华氏度)的条件下实施操作运营,但是没有理由将操作运营环境温度冷却到这一温度之下。
密封遏制
即使在实施了较高的操作运营温度的情况下,有效的冷却策略仍然是至关重要的。改善冷却的最佳方法是分离热空气和冷空气。 “密封遏制”冷空气供应或热空气排放,防止二者的混合,但是您企业的数据中心需要采取两个步骤来成功完成此任务。
首先,机柜必须实行面对面和背对背的安排布置,使得机架前面的通道(或称“通风走廊”)与排气通道(或称“热”通道)交替。注意,在较高的入口温度条件下,我们此处所提到的是 “通风走廊(cool aisle)”而不是“冷通道(cold aisle)”。
第二,机柜之间的间隙必须用填料封闭,所有未使用的面板空间必须用消隐板(blanking panel,即实心板代替缺少的计算硬件)堵塞。这可以防止来自计算硬件背面的热空气再循环到前部,而提高设备的入口温度。
即使采取了上述这些步骤措施后,空气仍然可以在机柜的顶部和机架行末的周围流通,所以最终的解决办法是竖立更多的屏障,以遏制空气流通。无论是热过道还是冷过道都可以采用这种方式。屏障可以是诸如塑料窗帘,当然其也可以在机架行的端部或者悬挂在机柜上方以进行防护和防止静电。这被称为“部分遏制”,因为部分的空气仍然可以通过帘缝渗漏,但这是非常有效的。
“完全密封”要求带有门的实心端板,以及机柜顶部和天花板之间的实体屏障,或安装的天花板与机柜高度相匹配。完全遏制显然成本造价更贵且更不灵活,所以两者之间的选择通常是基于企业数据中心的预算或现有设施的限制。
在新的数据中心设计中,首先应考虑完全密封的方案,因为其是最有效的,而剩余部分的管道、电气和电缆桥架可以设计成能够容纳实体屏障。但如果天花板的高度或预算限制了这一点的实施,那么部分遏制要比什么也没有要好。
“热源”冷却
需要消耗大量的能量来推动冷空气通过房间,地板下方或管道。将冷却单元安置在靠近计算设备的地方有助于显着降低风扇的能耗。还使得冷却单元更容易在其可再循环之前吸入热回流空气。但是,最终仍然必须将热量排出到室外,这需要循环流体通过冷却单元。这需要管道在机柜区域之外,要么在地板下,要么在机架顶上。
如果您企业不想采用数据中心管道输送水,那么替代品是制冷剂,如果一旦发生泄漏,则会变成无害气体。但是制冷剂管道的安装和改变也更为困难和成本昂贵。虽然数据中心采用水冷却或将带来泄漏问题,但是通过适当的安装以及诸如泄漏检测系统和排水管之类的预防措施,则可以降低泄漏损坏昂贵硬件的风险。
另一个考虑是许多热源冷却器仅去除“显热”,并且被设计用于非常高的热负荷。 “显热”是指您可以感觉到的热量。其是电子设备产生的热量,不含水分。
因此,许多热源冷却器并没有湿度控制。此外,许多热源单元将不会在低热负荷下操作。为了冷却较低热密度的机架和机柜,同时提供湿度控制,常常需要采用常规的空调(如周边计算机机房空调或“CRAC”)。在一些设计中,单独的加湿可以是需要的。有五种基本类型的热源冷却,以及一种新的策略需要考虑:
1、行列式空调(In-row air conditioner)的包装与设备机柜一样,并且与机柜行的端部内或机柜排的端部处的标准机柜混合。有些单元只是简单的将空气从前面排入冷却通道,而另一些单元则允许将空气导向最需要的空间。然后他们从热通道中吸入热回流空气。该空气被再冷却并再次从前面排出。
2、行间冷却器(IRC)对于冷却是高效的,并且作为“封闭”环境的一部分,它们甚至更有效。风扇速度和冷却能力通常通过相邻机柜前面的温度传感器控制,因为这是入口温度。
行间系统可用于具有和不具有湿度控制的冷冻水、冷凝器水和基于制冷剂的热传递。冷冻水和抽水的制冷单元(没有压缩机、加湿器或再热器的系统)消耗很少的功率,因此它们也可以在不间断电源(UPS)上维护,以在发生电源故障后进行高密度冷却穿越。然而,穿越需要足够的冷冻水储备(通常存在于总管道内),加上也在UPS上的小泵,以循环,直到发电机启动。
另一大好处是,当冷却需求改变时,一些IRC可以在数据中心内重新定位。
3、机柜上方的冷却类似于行内冷却(In-Row Cooling),但这些设备从上方直接在需要冷却的机柜前排放冷空气,并将热空气抽回机柜顶部。有些单元安装在机柜的顶部,其他单元从冷却通道中间的天花板悬挂。一个系统可以被配置为不仅能够提供冷却,而且还可以形成冷却通道“天花板”,作为密封遏制解决方案的一部分。
顶置式冷却器(Overhead cooler)用于冷却超高密度机柜(通常是8 kW至25 kW或更高)。它们仅去除显热,因此被用作常规冷却的补充。顶置式系统由局部温度传感器控制。所有都是基于制冷剂的,并且具备高能效。
与一些IRC一样,在UPS上也可以保持顶置式冷却器的低能量消耗,以提供冷却穿越,直到发电机启动。当重新配置计算设备时,机架顶部和行中央单元也可以相对容易地物理重新定位。
4、自冷机柜是闭环系统的缩影。这些机柜在其自身的外壳内循环空气,用于最终的密封遏制的热源冷却。它们可以使用水或制冷剂,并且举具备高能效。但他们往往是大型、超重、成本昂贵。这些“问题解决者”通常被用于没有其他冷却设备的房间中,或者在没有重建房间的情况下在非低密度的数据中心中提供高密度“孤岛”。
5、背门式冷却器(Rear-door cooler)是散热器,使得冷却水可以通过散热器循环以去除热量。它们机柜上替换正常的背门,并在热排气通过它们时将其冷却,然后排入室内。
这些装置最初是设计成在进入热通道之前预先冷却来自高性能计算机所排出的非常高温的空气,并返回空调以进一步冷却。
如果安装在足够的机柜上(在许多情况下,意味着每个机柜均安装),较新的版本可以满足总的冷却要求。这导致空气在操作机房中的任何地方的温度都是相同的。由于所有的空气都要么可以用作排气要么作为进气,机柜可以面向相同的方向安置,或者仍然可以处于热通道/冷却通道构造。背门式冷却器仅去除显热,因此,与其他辅助系统一样,需要额外的设备进行湿度控制。独立的测试显示完全被动的背门式冷却器(没有风扇的冷却器)是最节能的冷却装置。
6、浸没式冷却是最新的冷却方案选项。只需对磁盘驱动器进行小的改动,设备就可以完全浸没在非导电的油中,直接从电路中移除热量。在发生故障的情况下,油还提供巨大的热量,其可以保持设备冷却,只有一个小的循环泵可以在UPS上运行。
这种新兴技术于2011年才刚刚兴起上市,但其正在赢得整个业界广泛的兴趣。其主要的缺点是,需要修改硬件,而这会使得工作设备凌乱。但就冷却而言,却是非常有效的。
数据中心冷却的未来
上述所有方法都依赖于某种形式的机械系统来将热量传递到外部空气。 理想的情况下,如果设备操作温度低于27摄氏度,则可以直接用来自外部的空气冷却设备。 或者,循环水可以由外部空气来直接冷却,仅需要采用泵,并且不需要机械制冷。 这两种方法都称为自然冷却。
在大多数气候条件下,即使外部空气条件不适合提供全年的冷却,足够的天数也能够满足在全机械冷却和自然冷却之间的切换,以实现成本效益。然而,从机械冷却到非机械冷却的过渡通常是自然冷却设计中的最大挑战。
但在将来,计算设备可以设计成甚至能够在更高的温度条件下操作运行。这将使得自然冷却的方法可以在一年四季中的任何气候中使用。随着数据中心操作运营温度的持续提升,直到1990年左右都一直在大型主机领域所使用的直接液体冷却的方法也变得越来越普遍。
在去除热量方面,水比空气的效率高约3500倍,因此考虑这个选项是合理的。液体冷却被用于一些高性能的硬件设备,并且,鉴于输送大量的空气用于冷却高性能硬件不太现实,故而液体冷却方案可能将获得进一步的普及。
“免费的”数据中心散热的方法和挑战
免费的数据中心自然散热冷却并不是真的“免费的”,除非您可以打开窗户,直接让空气吹进屋来。但是,当您企业的数据中心采用较低温度的室外空气而不是采用机械制冷来为建筑物或数据中心所散发的热量提供冷却时,您企业可以因此而节省大量的电气成本,我们将其称之为“免费自然冷却”。
在数据中心行业中所经常使用的另一项术语是节约,但不管是什么,其核心理念都是尽可能使用最少的能耗将数据中心的设备散热排放到户外。
专注于数据中心基础设施运维与运营管理,分享运行维护经验,分享数据中心行业发展趋势及新技术应用。
合作交流:wj2012bj
QQ交流群: 108888484
投稿邮箱:[email protected]
▲长按二维码"识别"关注