热设计网

揭秘数据中心水冷技术

scott2016
一,液冷应用的完美案例  

随着技术和产品的革新,近几年来一些顶尖玩家甚至开始用矿物油或者液态氮来推动硬件的极限效能。而这些液冷技术已经也开始被厂商用作服务器和数据中心散热中去。我们现在可以看到越来越多新奇技术的应用,像是老式的浸没服务器冷却罩,液体刀片服务器,矿物油冷却服务器等等。
水冷

  我们认为采用这些新奇技术所节省下面的成本是相当可观的,企业不必企业可以不必维护庞大的冷媒压缩机、管线、散热水槽与风扇等设备,在目前日益重视的节能与成本议题上,服务器油冷设备的确显现了不错的竞争力。但在一线的机房人员会如何看待些装置我们还不得而知,只是这些炫酷的技术就已经把我们带进花花水世界,让我们应接不暇了吧。
  首先我们要来看一个液冷应用的非常好的案例。在 Intel 与油冷设备厂商 Green Revolution Cooling 历经一年的合作测试下,服务器油冷散热无论在冷却与节能效率上皆能轻易击败传统空冷形式,而且 Green Revolution Cooling 认为这项装置兼顾了安全性与硬件可靠性,并且仍有进步的空间。
工作人员将服务器浸入矿物油
​工作人员将服务器浸入矿物油
  在这项为期长达一年的试验中,英特尔利用矿物油对服务器进行冷却,比较与传统的空气冷却技术的耗能。实验数据表明矿物油冷却技术比传统的空气冷却的耗能要低90%至95%。
矿物油冷却服务器
​矿物油冷却服务器
  Green Revolution Cooling (GRC),是一家位于德克萨斯州的成立两年的公司,主要是提供液体冷却技术解决方案。在2009年超级计算机大会上,Green Revolution Cooling 推出了矿物油制冷技术,并且在2010年的超算大会上被选为2009年年度突破性技术。他们利用比热容是空气的1200倍的一种矿物油来对服务器进行冷却,使得冷却耗能最高节省了95%。

 
 
二,水冷技术发展及典型
水冷技术的发展历史及典型代表
  1964-1990期间,大型主机采用的是水冷技术。然后,出现了互补金属氧化物半导体晶体管制造技术。该发明大大降低了芯片自身运行时产生的热量并且能把热量排给空气制冷设备。在很多年里,水冷技术也一直被高性能个人计算机所使用。由于笔记本电脑内部空间狭小,空气制冷却起不到应有的作用,所以许多笔记本系统都是采用水冷技术。
2
水冷服务器内部
  尽管水冷技术更实用,但由于低热负荷时空气制冷却成本也较低,所以IT产业转向使用空气制冷却。但随着时间推移,芯片越发密集,工作频率一路飙升,这两个因素都导致了电力需求和处理器热排量呈指数倍上升。
  在计算机发展过程中,我们经常把系统性能限制认定为“运算约束”或是“I/O约束”。而今天的处理器则是“热约束”。在传导热方面,水比空气有效得多。用于冷却时,水大约比空气有效3500倍。
水冷服务器
水冷服务器
  有了水冷处理器,芯片和服务器厂商无形中被赋予了开发超大运算能力的机会。试想一下,使用一个更有效的冷却技术可能带来的成本节约和数据中心的成长可能性。
  可以说是IBM翻开了水冷技术的发展历程,因为IBM最先使用水冷技术的时间可以追溯到1966年。当时,IBM推出了System/360型91大型计算机。这款计算机是当时运算速度最快、性能最强的机器,主要被设计用来处理科学应用的高速数据处理(比如太空探索、亚原子物理学、全球气候预测等等)。因此,为了确保 大型机在长期的高速运算中不会发生过热而宕机的事件,IBM就研发了这种专门的水冷系统。
3
IBM 3081
  IBM 3081型机是一款结构非常复杂的大型机(诞生于1980年11月12日)。在这款机器上拥有两个最具特色的高能效设计。其中一个是从大型机之前的68KW功耗降低到23KW,另外则内置有水冷技术,在传统的风冷设计的基础上还新增了散热片。
  2006年IBM研究人员展示了最新的旨在提高计算机芯片散热效率的新技术:直射式散热。这是一种水冷技术的新突破,在一个密闭的系统中将水直接喷射至芯片背板,并随后将吸附芯片热量的水分吸干。这套系统采用了多达5万个喷嘴和1个复杂的树状回路结构系统。
02
IBM Power575
  2008年4月,IBM展示了其首个采用水冷技术的超级计算机Power 575。这款Unix机器包括 有14个内置水冷管道的服务器。这些水冷管道通过机架直接接入到服务器上,并配合处理 器散热器上的水冷铜座共同发挥作用。
ibm
Aquasar服务器内部
  2010年7月,IBM展示了首款采用“热水”的超级计算机Aquasar。该超级计算机是IBM为苏黎士瑞士联邦技术研究院而设计的计算机。水冷技术的发展也由此而翻开了新的篇章。
  打开该系统的刀片式服务器机箱就能发现,其主板上的每颗CPU都由液冷头覆盖,其间则使用细导管连接,导出机箱后再连接到更大型的回路系统中。水在处理器附近被加热后,就会通过细管流入机房所在建筑的暖气管道中,参与地暖系统供热,热量耗尽后冷却再流回服务器形成循环。由于该系统被安置在普通风冷机柜旁边,除了液冷处理器散热外,不需要其他任何散热措施。
  据称,这款超级计算机相比同样配置的风冷超级计算机可减少40%的能耗。而且余热还可以被用来对整个大学建筑物进行取暖,Aquasar的碳排放也因此减少了85%。
 
 
三,液体冷却实验操作过程
液体冷却实验操作过程
  英特尔和Green Revolution Cooling将服务器浸入到250加仑的矿物油中,矿物油的温度通过一个热交换机保持低温。英特尔的架构工程师相信,通过控制服务器的热度,及时的热量转移能够提高处理器的处理速度。
矿物油冷却系统
矿物油冷却系统
  在矿物油冷却系统中,一个热交换机可以控制4个机架的矿物油温度。在每个特制的机架中,有电源、网线接口等等。
矿物油冷却系统结构
矿物油冷却系统结构
  不同于普通机架的一层一层的结构,在矿物油冷却系统的机架中,服务器是类似刀片的插入到矿物油中。
矿物油冷却服务器
矿物油冷却服务器
  一个传统的数据中心需要设计服务器单元,需要空调单元并且一些其它建筑架构设计,但是采用矿物油冷却技术,架构的设计要求比较少。从另外一个角度来说,这又为企业节省了费用。
矿物油冷却服务器
矿物油冷却服务器
  为期一年的测试结束后,英特尔表示在考察数据中心能源效率的重要指标PUE上,矿物油冷却系统能够达到1.02至1.03,相比于传统空气冷却的数据中心的1.8来比,有着巨大的节能提升。
 
 
四,液冷优势所在
液体冷却优势所在
  液体冷却能够很容易的就将服务器运行产生的热量覆盖并转移到其他地方。另外,由于没有风扇和空气,服务器的设备出错的概率也降低了,风扇瘫痪容易导致系统过热而出现问题,而空气中的灰尘也有可能引发其他问题。
传统服务器的风扇
传统服务器的风扇
  在传统服务器中,往往有许多风扇,为发热比较高的处理器进行冷却,而一旦风扇出现问题,服务器就会因CPU过热而出现故障问题。此外空气中也会有许多灰尘,采用空气制冷不可避免的是灰尘在服务器内部堆积的情况,而灰尘累计过多也会影响系统的散热。
塑料垫膜
主板下面的塑料硬膜
  传统的服务器为了防止灰尘,许多都会在主板下面加入了塑料硬膜阻止灰尘进入主板。此外又不能将服务器内部元件封闭起来,因为那样就会阻挡通风,导致元件过热。就在硬膜上设置了几个小孔。
矿物油中的服务器
矿物油中的服务器
  采用矿物油冷却技术,风扇和灰尘都不会影响服务器的运行。而与水不同的是,矿物油是非极性物质,不会对电子集成回路产生影响,对服务器内部硬件不会有损坏,做一个形象的类比,你的手机掉入水中,十有八九会出问题,而掉入油中的话,则不会出现问题。
矿物油冷却服务器
矿物油冷却服务器
  英特尔与Green Revolution Cooling的合作实验中,对比了两种机架服务器,其一是采用标准的数据中心的空气冷却技术,另外一个则是采用矿物油冷却技术。
 
 
五,谷歌水冷服务器专利
谷歌水冷服务器专利
  谷歌早在2006年之前就开始研究水冷技术,并于2009年得到其水冷服务器的专利。谷歌水冷服务器专利的主要技术特点是服务器主板两两成对安装在散热片的两个外侧,由散热片内流过温度较低的冷冻水来带走热量。
23
  其中高发热的元件,比如CPU和南北桥芯片组等靠近散热片内的冷冻水来安装,从而发出的热量被散热片内的冷冻水就近带走;而一些发热量不高的器件,比如内存和硬盘等则直接安装在稍远离三明治散热片中心的位置,部分案例中还有服务器风扇或电源风扇安装在某侧的服务器主板上,用于将内存和硬盘等的热量带走。
 
  Google的数据中心把整个建筑视为风道的一部分,并没有完全弃用水冷系统,而是将其升级进化,从而提高水冷系统的效率。
冷却管道
冷却管道
  通过Google在芬兰Hamina数据中心照片,我们看到在热风道上多组热交换器。并且通过谷歌数据中心的冷却管道我们知道,这里只靠海水来冷却服务器。
存储槽
存储槽
  谷歌数据中心重新利用了一个老造纸厂在造纸过程中使用的存储槽。
  在谷歌MayesCounty数据中心这样照片里,我们看到数以百计的风扇直接将热空气排入密闭的风道,从冷却塔来的冷水通过包裹金属外层的水管输送到风道顶端的热交换器,热空气迅速被冷却避免在风扇周围聚集。
谷歌
MayesCounty数据中心巨大的风道
  数据中心内部保持80华氏度(约等于26.67摄氏度),略高于其它数据中心。80华氏度的空气进入服务器内部,然后被加热。服务器后部的风扇将被加热到接近120华氏度的空气排入封闭的风道,热空气上升,并被顶部的热交换器冷却,被冷却的空气会从下方的活动地板排出。
  但是这样做的危险是一旦水冷管泄露,后果非常严重。
 
 
六,“不一样”的水冷系统
  惠普位于俄克拉荷马州塔尔萨(Tulsa)的数据中心采用了屋顶反射系统,避免阳光照射抬高数据中心室内温度,它还有一个创新的水冷系统,这两项创新设计节省了数百万美元的成本,这个数据中心还可以抵御五级龙卷风的袭击。塔尔萨数据中心有一个容量为8000000加仑的冷冻水储存罐,在没有开启制冷装置时,也可以支撑整个数据中心8小时的制冷。
35
惠普塔尔萨数据中心全景图
  有数据统计,空调制冷的数据中心中。25%的能耗不是由计算设备产生而是由冷却系统产生。因此,能好和碳排放方面,冷却系统促成的压力也越来越大。IBM也同样认识到这一点,并很早着手进行水冷技术的研发和应用。在过去几年,数千家企业受益于IBM的Rear Door Heat Exchanger背板换热器技术,通过在服务器机架背板散热,可以减少55%的空调制冷需求。
  水冷服务器其实也不是个全新的概念,比如图1是IBM联合瑞士苏黎世联邦理工学院共同研发了一种名叫Aquasar的水冷超级计算机,它可以降低40%以上的能源消耗,减少85%的碳排放,同时将收集来的热能用于建筑上的需求例如地热。
  从这个案例我们可以看到采用水冷服务器的主要好处是就近带走热量,可以有很高的节能效果,同时大大提高功率密度来缩小服务器的尺寸,减少风扇噪音,以及容易实现热能回收等等好处。
超级计算机“SuperMUC”也采用水冷技术
  德国加尔兴莱布尼茨超级计算中心(LRZ)与IBM签署合同,由后者负责开发、制造一套新的通用目的超级计算机“SuperMUC”也是水冷应用的典范。
36
SuperMUC
主板水冷技术设计图
主板水冷技术设计图
  相比于其他超级计算机,SuperMUC的特别之处还在于其水冷技术,传统的超级计算机采用都是空气制冷。根据之前IBM说法,通过水冷技术,SuperMUC能够节能40%以上。
IBM水冷技术
IBM水冷技术
  SuperMUC采用的水冷技术是和IBM x iDataPlex一样的技术,确切的说其实是温水制冷技术,因为采用的40摄氏度的入水,而一般情况下,数据中心水冷都是采用16摄氏度的入水。
  之所以采用温水,原因在于水的二次利用,常见的数据中心水冷技术中,16度的水经过数据中心的服务器后,排出的水的温度在20度左右,这些水由于温度太低而不能在做其它用途,而IBM采用的温水制冷技术,经过系统后排出的水能够达到70多度。这些水能够二次利用,例如为建筑物供暖等。
  绿色高效对数据中心的重要性不言而喻,追求PUE值也成为了各大厂商宣传自己数据中心的噱头之一。然而对于数据中心来说,让PUE值达到1.10是一个不小的挑战,现在世界上PUE值达到这个目标的数据中心中基本上都是采用了不同的冷却技术。
  其实液冷技术的好处虽然不言而喻,但是渗漏还是大家所关注的问题。厂商要想让大家接受液冷技术,那么他就要让该设置既快捷又简单。那么未来的话题就不会仅仅在电力能耗的问题上纠结了。

注:本文转载自PConline,有删改。
 

标签: 点击: 评论:

留言与评论(共有 0 条评论)
   
验证码: