| 设为主页 | 保存桌面 | 手机版 | 二维码 | 中国智能化网
107

台达集团

PLC/HMI/工业电源/机器视觉/温控器/工业机器人/DVCS分布式控制...

智能化网头条分类
联系方式
  • 联系人:中达电通
  • 电话:400-820-9595
  • 邮件:[email protected]
  • 传真:021-58630003
您当前的位置:首页 » 智能化网头条 » 数据中心冷却系统的演进
智能化网头条
数据中心冷却系统的演进
发布时间:2019-10-09        浏览次数:495        返回列表

全世界包含规模较小的数据中心总量有大约850万个,其中300万个座落于美国,几乎是每100个人就有一座数据中心,而它们占美国所有用电量的近2%。

这些数据中心所使用的IT硬设备,将所消耗的电力100%的转化为热能。因此,需要强大且高效的冷却系统,但通过传统的冷却方法冷却也需要电力,冷却系统的电力需求也占数据中心总电力的50%以上,整体能源的需求是如此庞大。

这使数据中心成为巨大的电加热器,而现今趋势不?#31995;?#24314;设更多数据中心,这有可能使企业甚至国家的永续性发展变得更加困难,?#20197;?#30340;是,传统数据中心的冷却模式有更高效的替代方案。用于检测数据中心冷却系统运行效率的测量标准,称为能源使用效率或PUE。它是数据中心的总用电量与提供给IT设备的总用电量的效?#26102;齲?a href="http://www.dysvc.club/com/zddtgs/" target="_blank">PUE数值越低越好,标准的评级为2.0,1.4是好的,而1.0是您可以达到的佳PUE评级。

传统的方式:高架地板冷却

在过去的半个世纪中,大多数据中心都是使用高架地板输送加压空气来冷却的方式。CRAC(机房精密空调)或CRAH(机房空调处理装置)由定速风?#20154;统?#20919;气来冷却,当机柜密度?#31995;褪保?#36825;种类型的系统运行良好,而且效率并不被大家列为优先重视项目。但随着时间的推移,缺点就被凸显出来,举例?#27492;擔?#36229;过2.0的PUE在这里变得很常见。

这种冷却方式的大问题是从机架底部到顶部的温度梯度,这被称为温度分层。靠近地板的服务器获得冷的空气,机架顶部的服务器通常是吸入较热温度的空气。如果增加气流去缓解此问题,效率则会降低,因为冷空气会溢流过服务器机架的表面并与热回流空气混合。因此,开发了诸如冷热信道封闭配置的策略。这些配置还可减少再循环,这?#26234;?#20917;发生在服务器后方排出的热空气再被服务器前方吸入?#20445;?#21487;能会产生危险的设备温度。

现代精密空调解决方案

?#28304;?#20351;用定速风扇将空气吹入高架地板以来,冷却技术已经走过了漫长的道路,机柜密度的增加使这些进步成为必要。通过冷空气封闭和热空气封闭设计,很大程度上克服了分层?#22242;?#36335;的局限性,机柜式空调可实?#25351;?#39640;的效率。在这里,变速风扇安装在冷却系统里且整合在同排机柜中,使数据中心操作员能够更精密的控制温度和能?#27169;?#36825;些变速风扇消耗的能耗明显低于使用定速风扇的系统。 

节能空调的使用正在增加

经过数十年的数据中心建设,很难去想象冷却系统还有很大的发展应?#27599;占洹?#29289;理学的基础并没有被改变, 但应用的方式有很大的差异。部分原因可以解释为全球地理位置的气候差异,有前景的数据中心冷却节能方式之一被称为自然冷却或节能空调。在这种方法中,外部空气被用于冷却水塔或带走冰水机的热能,该方法当然取决于数据中心外的空气温度是否足够低以提供必要的冷却,较凉爽的气候在这里具有决定性的优势。

电力不是机房消耗的资源

使用冷却水塔做为冷却数据中心的解决方案会消耗大量的水。然而,许多数据中心位于世界干旱地区。即使不是,水也是一种宝贵的自然资源,我们必须努力保护它。从表面上看,这至少对于干式冷却系统?#27492;?#20284;乎是有利的,但从更全面的角度来看,我们还必须考虑石化燃料发电厂的蒸汽阶段也消耗水,如此多的水,干式冷却系统所需的额外能耗导致干式冷却的耗水量高于?#20013;?#20912;水机。

具有低PUE的外气冷却方式

有一件事是确定的導入新的方法将是必要的!有希望但也有问题的方法之一是使用新鲜的外部空气来冷却数据中心,有?#36865;?#37096;空气,PUE可以达到非常接近1.0,正如Yahoo用“鸡舍”设计所证明的那样。其实,为机房导入外部空气涉及多个挑战,室外温度需要足够冷,以便为IT设备提供安全的温度,否则必须使用备用冷却系统,但湿度和?#39029;?#20063;是难以解决的问题。

如果机房的湿度太低,则静电放电的风险会增加。然而,近的研究低估了IT设备的ESD风险,特别是当服务器安装在机柜中?#20445;?#25439;坏的风险很低,当技术人?#38381;?#22312;接触机房设备?#20445;?#22909;先佩戴防静电腕带。

另一方面,过高的湿度可能会带来更大的风险,外部空气变得更加潮湿?#20445;?#23427;会收集更多的?#39029;究?#31890;聚集在IT设备上,随着?#39029;究?#31890;的聚集,它们使机房组件绝缘并使冷却更加困难。?#38752;?#31890;也会透过潮湿空气沉积在电路上,终导致短路。因此,太潮湿的空气需要除湿,这反过来会消耗功率并使低PUE指数降低。

外气冷却的另一个重要问题是?#39029;?#21644;烟雾,根据空气中的悬浮微粒,外气冷却可能需要昂贵的空气过滤器。即使有良好的过滤,现有数据中心极其敏感的灭火系统?#37096;?#33021;受到外气冷却带来的空气污染物的影响。

液浸式冷却

电线杆变压器使用比空气冷却能力还要高的冷却方法,这是通过将电?#26041;?#27809;在介电流体(通常是矿物油)中来达成的,由于油导热但不导电,因此不会损坏部件。液浸式冷却?#37096;?#29992;于服务器,使用这种方法与外气冷却相比,将热量从电子设备中移除的效率更高,现在已有供货商为数据中心应用提供液浸式冷却解决方案。

IT设备根据美国采暖、制冷与空调工程师学会(ASHRAE)技术委?#34987;?#23450;义的等级进行评级,这些评级类别(A1到A4)是ASHRAE开发的一套指南标准,用于确定机房硬件的佳温度和湿?#20154;?#24179;,其中A1具有小的允许温度?#27573;А?

但是现在许多IT硬件制造商生产A2级甚至A3级设备,这可以为数据中心冷却方式提供更大的选择灵活性,因此,仔细检查设备的冷却要求是明智的,而不是仅仅遵循A1-A4类标准的ASHRAE建议。当然,您的设备运行温度越高,它的可靠性就越低,但是硬件?#25910;系?#25104;本是可?#32422;?#31639;的。通过预测随温度升高而增加的?#25910;?#39118;险,可?#32422;?#31639;出冷却所带来的节省量与增加?#25910;?#29575;的成本之间的差异。许多公司在短短三年之后就更换了他们的IT设备,在这?#26234;?#20917;下,较高温度的对硬件影响可能不显著。

实验带来更好的效率

有效的冷却设计采用某?#20013;?#24335;的自然冷却或外气冷却,通常当户外条件(炎热,潮湿的夏季)无法提供足够的冷却以满足数据中心的要求?#20445;?#26426;房精密空调需要作为备援。 然而,我们在一些开创性设计中看到的关键之一是,建筑结构总是有着不可或缺的角色。规划建筑工程的期间,如果要尽可能地将IT设备塞入空白区域中,就须考虑之后冷却能力是否足够,新的数据中心概念需要从一开始就考虑到冷却系统。

例如,一家荷兰公司已经实施了一个系统,该系统使用称为京都圆盘的巨型旋转铝盘从建筑物中移除热量。圆盘的一半在建筑物内,一半在外面,当圆盘旋转?#20445;?#23427;会在建筑物内部变暖,并在返回时将其收集的热量传递到室外空气中。但是圆盘本身相当大,并且需要相当大的?#21344;?#29992;于圆盘旋转通过的内部和外部区域,所以这是需要事先规划的。

另一种选择是,不是简单地将废热倾倒到环境中,而是充分利用它。已经有将数据中心与区域供热和供冷系统整体结合在一起的案例,通过这种方式,来自机房的废热被用于提供家庭所需的热能,这是个可?#20013;?#24615;发展的例子,区域供冷系统也是一种非常有效的冷却数据中心方法,通过实?#25351;?#20919;却效率可以获得巨大的竞争优势,但如何好地实现这一目标仍然是个未决的问题。

**本页面信息涉及广告内容**
探陵人官网
澳门押大小怎么能赢 新时时倍投计算器 时时彩五星定位胆计划 陕西十一选五推荐号码 山西体彩11选5开奖结果 九乐棋牌安卓版下载 福彩排列七综合走势图 时时彩大小单双技巧规律 快乐10分20选8技巧 有什么能赚钱的陪聊app 乐动力靠什么赚钱 235棋牌游戏平台 时时彩稳定平刷 重庆快乐十分现场直播 云南11选5历史开奖 湖南快乐10分计划