电子设备散热技术详解

49次阅读

共计 2341 个字符,预计需要花费 6 分钟才能阅读完成。

随着 5G、人工智能、物联网、智慧城市的蓬勃发展以及大数据、云计算技术的深入发展和应用,作为数据计算、存储或连接交换的基础支撑与驱动技术进步的基石,数据中心是中国推进新一代信息技术产业发展的关键资源,数据中心的发展将持续强劲增长。

CPU 频率更高!
计算速度更快!
图像处理更强!

服务器能力的递增,随之而来的就是整体功耗的上涨;而机房布局面积限定与机架尺寸限定使得服务器的体积不能有太大的变化, 要在有限的空间里装进无限可能 ,服务器只能在“功耗胖子”的路上越走越远······

功耗的增加必然会导致服务器的散热需求的增加,那么这个越来越胖的家伙怎么才能进行有效地散热呢?

相信大家都会有这样的生活经验,在炎炎夏日中我们如何才能舒适惬意?
最初的办法就是找个树荫,晒不到就凉快了!
如果还是热?那就扇扇子!
再不行?那就开空调!
依然不行?那就直接去冲个凉吧!

电子设备的散热设计也是相似的历程,最初的自然散热设备只要找个温度不高的使用环境就能很好的工作了,散热设计?ME 随便摆一下就 OK 了!

自然扇热设备

当慢慢自然散热搞不定的时候,风冷散热模式上线,系统里放几颗风扇、整体风道划分,散热问题就能解决,轻松加愉快!

风冷散热设备

再后来电子设备尤其是服务器的需求量增大,集群部署能更好的运营管理,数据中心机房要维持良好的设备运行环境,机房空调就必不可少,无论集中送风还是冷水列间,机房环境温度低了,服务器也就安生了!


传统数据中心制冷流程图

当前电子设备的功耗密度已经是最初的几倍甚至十几倍,设备不断更新迭代,但机房没法跟上更新的节奏,部署密度受限、机房供风不足、整体 PUE 过高等这些问题亟待解决;对服务器端,功耗明显上升的都是个别部件,整个系统热岛现象明显,受限于结构空间,只能不断的加大系统风量,就要求风扇的转速越来越高,伴随的就是震动强、噪声高、功耗大;面对这些问题,风冷散热模式捉襟见肘,用冷水冲个凉吧!


数据中心液冷机房

工质在散热设计中扮演搬运工的角色,搬运工人数可理解为密度,单人每次负重量理解为比热容 C,单位时间内搬运的次数就是换热系数 h;空气的比热容约为 1.0KJ/(KgK)、换热系数 20~100 W/(m2K)、密度约为 1.3g/L,而水的比热容约为 4.0KJ/(Kgk)、换热系数 200~1000 W/(m2K)、密度约为 1Kg/L;简单换算工作效率可以得到,风冷相当于一个人搬、一次搬运一个箱子、单位时间搬运 20 次,而水冷就相当于 770 人搬、每人一次搬运 4 个箱子,每人单位时间搬运 200 次,理论上是风冷的 3 万倍!实际运行中因各类限制,不会达到这么大的差距,但液冷的散热效率也是风冷的几千倍。

液冷的方式有多种,主要可以归纳为浸没式、喷淋式、冷板式三个大类;

  • 浸没式:将整个服务器直接浸泡在工作介质中,根据工质工作状态可细分为非相变和相变两类;

  • 喷淋式:工质通过服务器上盖板,直接滴漏或喷射在服务器的热源上,再通过服务器底壳收集运出,通常工质不发生相变;


喷淋式液冷服务器

  • 冷板式:工质通常选用纯水,利用管路输送进服务器,再通过冷板与系统热源发生换热后导出服务器。

冷板式液冷服务器

综合考虑机房运维、系统性能、上线风险等方面,目前容易接受且应用最多的是冷板式液冷模式;根据循环架构的不同,又可分为开式循环系统和闭式循环系统。

闭式系统是自循环的小系统,最常见的应用是 PC 主机箱液冷,透明机箱加带色的工质,系统一运转,非常炫酷:


闭式循环系统系统 & 原理

与闭式循环系统相比,开式系统对机房节可能更有帮助。它能够将热量转移至室外进行散热,减少机房的空调用量,降低整体 PUE。

系统通常划分成一次侧和二次侧两部分,一次侧为机房供水,包括室外的干冷器和冷水机组;二次侧为机房内布局部分,包括供液环路和服务器内部流道;两个部分通过 CDU(Coolant Distribution Unit 冷量分配单元)中的板式换热器发生间壁式换热,工质不做混合。


开式循环系统

冷板式液冷服务器主要由快速接头、管路和冷板组成:

  • 快速接头可以实现带压插拔维护服务器,水路的自动断开和导通;
  • 管路负责水路的运输工作,在服务器内进行流道设计;
  • 液冷板的作用是提供冷水与热源之间换热的场所,内部有各类流道设计应对不同使用场景。

结语

根据 DCFF 发布的《中国数据中心能源使用报告 2018》,截止 2018 年底,中国大小数据中心总量在 40 万个以上,在线使用服务器数量超过 1200 万台,年增长率在 13.4%~17.7% 之间,所有服务器及网络设备耗电量约 324.4 亿度电,占全社会总用电量 1%,随着数据中心的数量及服务器保有量增加,该比例会持续增大,达到或接近美国数据中心社会总用电量占比的 1.5%~2% 水平。

初步评估,液冷机房的 PUE 可以做到 1.1 左右,即 324.4 亿度电需要的散热配套设备功耗为 32.44 亿度电,而当前较好的风冷机房 PUE 平均可以做到 1.4 左右,即散热配套设备功耗为 129.76 亿度电;液冷一年可以节省 97 亿度电!相当于千万级人口大城市的年均居民用电总量。

由于其回液温度明显高于传统空调系统回液,废热品味显著提高,可以大幅度提升热回收应用价值,在未来规划利用新型数据中心余热回收技术,为需求场所提供绿色清洁的热源,从而达到能源的高效与绿色化应用。


京东云 AIDC(AI/Alliances+IDC),即京东云在 IDC 业务领域联合最广大的 IDC 渠道商,依托京东云自建骨干网,形成一个遍及全国的资源大网,充分满足客户对地理、时延等方面的需求。京东云 AIDC 除包括传统 IDC 如机柜租赁、带宽等产品外,还包括丰富的增值服务产品、智能化产品、云产品以及定制化产品。再结合京东公有云丰富的产品线,AIDC 可以为客户提供私有云托管、专有云、混合云、云灾备等整体解决方案。

点击了解

正文完
 0