关于大数据时代数据中心散热技术的研究

关于大数据时代数据中心散热技术的研究液冷服务器
摘要:随着社会的不断发展,数据中心的建设至关重要,其能够为相关社交、视频以及网购等应用提供计算、存储以及网络能力。但是由于当前大数据以及人工智能及时广泛使用,使得数据中心的规模一直在不断的扩大,导致整体能耗快速提升。基于此,本文简要介绍了数据中心产热的原因,提出了相关的散热技术,以降低能源消耗,减少建设成本。
关键词:数据中心;散热技术;高能耗
1、大数据时代数据中心概况
随着社会的快速发展,现阶段我们许多数据中心客户的方向发生变化,因为全球趋势影响着他们的优先事项。许多国家过去一直处于“孤岛模式”,但随着我们进入对抗气候变化的关键时期,这种情况必须改变。能源和成本效率是必须的,新技术是必须的,与社区接触是必须的,无论是通过寻废热的用途,还是提供平衡服务来帮助能源转型。“对数据的需求只有一个方向,随着越来越多的电动汽车上路,5G的推出改善了延迟,人工智能和机器学习的使用越来越多,数据中心的能力需要存在促进我们的电气化世界。数据中心行业的增长必须是可
持续的,并对设施所在的社区产生积极影响,这肯定是我们当前将更加关注的事情。”数据中心建设和消纳在不断创历史新高的同时,也正在遭受不少的抨击,因为它们消耗大量的电力和水、排放温室气体、产生垃圾填埋场的垃圾,却不产生有形的产品,如汽车、房屋和钢铁。但其实我们的生产生活中,无论是视频流、在线购物、在线社交、沉浸式视频会议,还是工业过程和生产控制等等,都离开不数据中心的输出。数字化世界需要相当数量的处理和存储能力,这是数据中心呈指数级增长的动因。而如何提高数据中心的能效、减少对环境的影响、以及对电力供应所带来的挑战也成为当下备受关注的议题。作为数据中心、行业关键应用领域基础设施建设和数字化服务的全球领导者,施耐德电气每年年初都会基于深刻的行业洞察和实践发布《看得见的未来—数据中心市场的新趋势与新突破》以揭示新一年数据中心行业会发生哪些变化,有哪些趋势会影响数据中心行业未来的发展方向(这些趋势的落地在未来有可能需要持续数年)以及这些变化和趋势对数据中心运营商的价值和意义。
2、数据中心散热技术研究
2.1、热管技术
热管技术的出现,一定程度上解决了传热散热方式的效率低下的特点,为高发热量的数据机房提供了一个可行的散热解决方案。在数据机房的散热冷却当中,国内外专家已经在进行热管散热应用的相关研究。目前,应用数据中心的热管散热设备包括以下几种:分离式热管空调、热管空调技术、热管型背板、热管型服务器散热装置、热管新风换热系统。热管技术应用与数据机房中的散热主要分为以下散热三个层面:应用于机房级别的散热系统;应用于机柜级别的散热系统;应用于服务器级别的散热系统。一般来说,散热系统越接近发热源,以及其热量传递的级数越少,其散热效率越高。而对于当前的热管散热技术来说,采用机房级别的散热方式,对原有数据中心的改动最少,一般只需要在原有的空调系统当中增设相应的热管空调系统,机房内部的改动较小。而相对应的,在机柜级别以及服务器级别的热管散热系统,由于需要在机房内部增加相应的管道系统,其对当前的数据机房改动较大。普通热管换热器相对于分离型热管空调,其热管部件采用的是传统的管状热管,通过隔离热管的热端以及冷端,利用室外的冷空气与室内的热空气进行热量交换。机房热管空调技术作为一种新型的数据中心散热技术,其具有较高的换热效果以及较低的能源消耗等特点。但是其依靠室外空气温度,在室内外温差较少时,热管空调无法正常工作。因此,热管空调应用在常年保持较低温度的高纬度地区,能够有效地利用自然冷源,
能够达到很好的节能效果。而在大部分地区,热管空调可以在温度较低的冬季启用,可作为传统机房空调的一直补充,节约一部分制冷成本。
2.2、液冷技术
(1)浸泡式液冷技术。浸泡式液冷技术就是将服务器浸泡于一种特殊的矿物油或氟利品中进行降温,此系统对矿物油及氟利昂化学成分、密闭和净化条件要求非常高。一般单机架功率超12KW建议采用液冷方式,相对于风冷而言,液冷可以效率更高。但液冷服务器均需定制,初始投资高,对建筑物称承重有一定要求,且后期维保投入大。如华为可拔插型的水冷板液冷服务器,均需要华为专配的蒸馏水。其实这也就体现出液冷技术的一些弊端,比起常规的风冷服务器而言,特殊液冷的服务器会对日常的机房运维工作带来一定困难。
(2)冷板式液冷技术。冷板式液冷是一种紧耦合式(间接接触)的液冷技术主要通过3种核心部件来实现末端更加贴近设备,它们分别是冷板、分歧管、冷却分配装置。冷板相当于冷却系统中的“皮肤”,对于高密散热的服务器而言,服务器内部的散热空间是极其狭小的,这就意味着需要更加贴近服务器内部发热元器件的冷板贴合进行高效的换热。而分歧管则
负责输送冷却介质分布在服务器两端同时连接冷板,相当于人体中连接心脏和人体组织的“血管”,那么冷却分配装置就相当于冷却系统中的“心脏”,保证冷却介质在冷却系统中的循环效率。理想状态下的液冷冷却技术在精准化的制冷过程中产生PUE可达到1.01~1.2,可大幅降低数据中心的能耗。目前业界比较广泛的采用液冷技术大多是间接液冷(板式),也有在使用直接液冷模式,如阿里就是采用的单向浸没式的液冷制冷技术。由此可见液冷技术对于数据中心来说,在可预见的未来液冷技术将极具规模的占据制冷系统的一席之地。
(3)喷淋式液冷技术。使用喷淋式液冷通常状况下只需要对对喷淋模块的喷淋头进行调整,不需要对数据中心中的其他设施进行改动,使得喷淋设备和服务器之间能够精准对应。此种液冷及时不但能够降低设施运行过程中所产生的热量,还能够对整个数据中心的温度进行控制。当前,先进的喷淋式液冷服务器大多采用芯片级喷淋液冷技术,通过冷却液带走部件产生的热量,冷却液的温度提升后,随即进入冷却系统的换热装置进行换热。
去年的极端气温导致英国Google和Oracle关闭,这促使许多数据中心运营商在2023年夏季之前重新审视其冷却策略。极端高温会使压缩机、泵和风扇等部件比平时工作更困难,从
而对冷却系统造成压力,这增加了故障的可能性。合适的工厂规模,适当的备用电源和针对极端高温的适当应急计划都可以成为解决方案的一部分我们也越来越接近数据中心向液冷过渡的临界点。这已被3M等大企业标准化,其允许比以往更高的机架密度(最高可达500kW)。随着更大的冷却能力的实现,与机械冷却相比,其可以提供更可靠和更节能的解决方案,目前机械冷却占数据中心能源消耗的三分之一左右。任何一项技术的迭代和更新优化都是权衡技术本身优点和效益而产生的,而液冷发展的三个核心原因正是风冷冷却无法做到且对于数据中心未来发展更高期望的具体表现:(1)芯片热功率已经达到风冷极限350W~400W。(2)国家对数据中心PUE提出了更高的要求,数据中心是能耗大户,2015年我国数据中心能耗高达1000亿千瓦时,降低PUE对节能减排大有裨益(3)液体比空气散热的优势明显;同体积液体带走热量是空气的3000倍、液体导热能力是空气的25倍、同等散热水平时,液体系统噪音的比风冷降低10~15db、液冷系统约比风冷系统节点30%。
2.3、风冷技术
常见的数据中心服务器CPU冷却形式为风冷,风冷的优点是散热器与基板(CPU)的装配具有标准化特征,虽然散热器的种类形式各异,但在组装方法上基本可以做到标准化或规
范化,有利于大规模生产。而常见的风冷末端空调的布置形式主要有:房间级地板下送风、行列间冷/热通道封闭、热管背板等。在IT设备中,服务器有内部的风扇通风功能,将设备散发的热量进行导流而不具备制冷能力,除此外我们需要部署机房冷却系统,也就是精密空调,以保障服务器良好运行。而就数据中心未来绿节能的发展趋势来说,在保障服务器良好运行的基础上,努力做到更低的PUE才是大势所趋。降低PUE意味着降低数据中心的能耗,从制冷技术层面来说数据中心要想做到这一点,无论哪一种制冷技术都是为了让冷却介质在末端尽可能的贴近设备,减少换热次数,以便于介质更加高效的与设备进行热交换,从而提高换热效率、降低冷损失。
3、数据中心散热技术发展愿景
进入2023年,数据中心行业的重点仍然是可持续发展与安全可靠,通过采用数字化工具、提高能效、实现供应链脱碳等手段来驱动可持续发展,提高数据中心的可用性。数据中心供电和制冷系统也将向着可持续发展和软件定义的方向不断演进。在千行百业数字化转型的大时代,数据中心既是驱动增长的重要引擎,也是不容忽视的“耗电怪兽”。2020年,我国数据中心用电量突破2000亿千瓦时,占用电总量比重约2.7%;预计到2030年,这一数
字将突破4000亿千瓦时,占比升至3.7%。到2023年大型及以上数据中心PUE更要低于1.3。显而易见,1.3将成为各地新建数据中心的PUE红线。但目前全国大型数据中心平均PUE为1.55,超大型数据中心平均PUE也仅为1.46。也就是说,在保有量万台服务器的数据中心,每耗费一度电,只有64.5%用于IT领域,其余35.5%则用在空调等非IT设备。数据中心为了降低PUE,必须让能源更多向IT设备倾斜,这对服务器的供电和散热研发设计提出了更高要求。供电效率提升可降低CPU等关键部件散热量,从而减少空调等设备的使用。浪潮信息掌握了从12V到48V直流供电技术,48V直流供电预计可减少30%的能耗。液冷是散热技术的翘楚,可以用液体取代空气作为冷媒,带走部件热量,目前常见的方式有冷板、浸没、风液混合等,已在云数据中心和边缘数据中心规模化部署,对降低PUE效果显著。但液冷技术对数据中心的机房环境要求苛刻,重新改造的成本也较高,浸没式液冷的冷却液价格更是堪比茅台。对大多数数据中心来说,风冷才是低成本改善散热的主流方案,最“简单粗暴”的做法是提高服务器风扇转速。风扇高速转动将热量快速带出,可避免部件发热量过高影响系统稳定性。但不断加码风扇转速直至满转时,风扇与硬盘之间会形成大的漩涡,而不规则的湍流影响非常严重,服务器内的硬盘碟片磁道密度低于50nm、0cylim低于10nm,磁头轻微振动就会造成读写性能大幅下降,甚至导致整个硬盘报废。

本文发布于:2024-09-25 06:18:31,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/3/353390.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:数据中心   技术   液冷   散热   热管   服务器
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议