热设计网

电子设备散热技术详解

热设计网

本文来源:京东云开发者社区

随着5G、人工智能、物联网、智慧城市的蓬勃发展以及大数据、云计算技术的深入发展和应用,作为数据计算、存储或连接交换的基础支撑与驱动技术进步的基石,数据中心是中国推进新一代信息技术产业发展的关键资源,数据中心的发展将持续强劲增长。随着5G、人工智能、物联网、智慧城市的蓬勃发展以及大数据、云计算技术的深入发展和应用,作为数据计算、存储或连接交换的基础支撑与驱动技术进步的基石,数据中心是中国推进新一代信息技术产业发展的关键资源,数据中心的发展将持续强劲增长。

CPU频率更高!
计算速度更快!
图像处理更强!

服务器能力的递增,随之而来的就是整体功耗的上涨;而机房布局面积限定与机架尺寸限定使得服务器的体积不能有太大的变化,要在有限的空间里装进无限可能,服务器只能在“功耗胖子”的路上越走越远······

功耗的增加必然会导致服务器的散热需求的增加,那么这个越来越胖的家伙怎么才能进行有效地散热呢?

相信大家都会有这样的生活经验,在炎炎夏日中我们如何才能舒适惬意?
最初的办法就是找个树荫,晒不到就凉快了!
如果还是热?那就扇扇子!
再不行?那就开空调!
依然不行?那就直接去冲个凉吧!

电子设备的散热设计也是相似的历程,最初的自然散热设备只要找个温度不高的使用环境就能很好的工作了,散热设计?ME随便摆一下就OK了!

blob.png

自然扇热设备

当慢慢自然散热搞不定的时候,风冷散热模式上线,系统里放几颗风扇、整体风道划分,散热问题就能解决,轻松加愉快!

blob.png

风冷散热设备

再后来电子设备尤其是服务器的需求量增大,集群部署能更好的运营管理,数据中心机房要维持良好的设备运行环境,机房空调就必不可少,无论集中送风还是冷水列间,机房环境温度低了,服务器也就安生了!

blob.png

传统数据中心制冷流程图

当前电子设备的功耗密度已经是最初的几倍甚至十几倍,设备不断更新迭代,但机房没法跟上更新的节奏,部署密度受限、机房供风不足、整体PUE过高等这些问题亟待解决;对服务器端,功耗明显上升的都是个别部件,整个系统热岛现象明显,受限于结构空间,只能不断的加大系统风量,就要求风扇的转速越来越高,伴随的就是震动强、噪声高、功耗大;面对这些问题,风冷散热模式捉襟见肘,用冷水冲个凉吧!

blob.png

数据中心液冷机房

工质在散热设计中扮演搬运工的角色,搬运工人数可理解为密度,单人每次负重量理解为比热容C,单位时间内搬运的次数就是换热系数h;空气的比热容约为1.0KJ/(KgK)、换热系数20~100 W/(m2K)、密度约为1.3g/L,而水的比热容约为4.0KJ/(Kgk)、换热系数200~1000 W/(m2K)、密度约为1Kg/L;简单换算工作效率可以得到,风冷相当于一个人搬、一次搬运一个箱子、单位时间搬运20次,而水冷就相当于770人搬、每人一次搬运4个箱子,每人单位时间搬运200次,理论上是风冷的3万倍!实际运行中因各类限制,不会达到这么大的差距,但液冷的散热效率也是风冷的几千倍。

液冷的方式有多种,主要可以归纳为浸没式、喷淋式、冷板式三个大类;

  • 浸没式:将整个服务器直接浸泡在工作介质中,根据工质工作状态可细分为非相变和相变两类;

blob.png

  • 喷淋式:工质通过服务器上盖板,直接滴漏或喷射在服务器的热源上,再通过服务器底壳收集运出,通常工质不发生相变;

blob.png

喷淋式液冷服务器


  • 冷板式:工质通常选用纯水,利用管路输送进服务器,再通过冷板与系统热源发生换热后导出服务器。


blob.png

冷板式液冷服务器

综合考虑机房运维、系统性能、上线风险等方面,目前容易接受且应用最多的是冷板式液冷模式;根据循环架构的不同,又可分为开式循环系统和闭式循环系统。

闭式系统是自循环的小系统,最常见的应用是PC主机箱液冷,透明机箱加带色的工质,系统一运转,非常炫酷:

blob.png

闭式循环系统系统&原理

与闭式循环系统相比,开式系统对机房节可能更有帮助。它能够将热量转移至室外进行散热,减少机房的空调用量,降低整体PUE。

系统通常划分成一次侧和二次侧两部分,一次侧为机房供水,包括室外的干冷器和冷水机组;二次侧为机房内布局部分,包括供液环路和服务器内部流道;两个部分通过CDU(Coolant Distribution Unit冷量分配单元)中的板式换热器发生间壁式换热,工质不做混合。

blob.png

开式循环系统

冷板式液冷服务器主要由快速接头、管路和冷板组成:

  • 快速接头可以实现带压插拔维护服务器,水路的自动断开和导通;

  • 管路负责水路的运输工作,在服务器内进行流道设计;

  • 液冷板的作用是提供冷水与热源之间换热的场所,内部有各类流道设计应对不同使用场景。

根据DCFF发布的《中国数据中心能源使用报告2018》,截止2018年底,中国大小数据中心总量在40万个以上在线使用服务器数量超过1200万台,年增长率在13.4%~17.7%之间,所有服务器及网络设备耗电量约324.4亿度电,占全社会总用电量1%,随着数据中心的数量及服务器保有量增加,该比例会持续增大,达到或接近美国数据中心社会总用电量占比的1.5%~2%水平。

初步评估,液冷机房的PUE可以做到1.1左右,即324.4亿度电需要的散热配套设备功耗为32.44亿度电,而当前较好的风冷机房PUE平均可以做到1.4左右,即散热配套设备功耗为129.76亿度电;液冷一年可以节省97亿度电!相当于千万级人口大城市的年均居民用电总量。

由于其回液温度明显高于传统空调系统回液,废热品味显著提高,可以大幅度提升热回收应用价值,在未来规划利用新型数据中心余热回收技术,为需求场所提供绿色清洁的热源,从而达到能源的高效与绿色化应用。

-END-


培训通知:

blob.png


标签: 点击: 评论:

留言与评论(共有 0 条评论)
   
验证码: