数字化转型在过去十年间深入进行,随着云服务、物联网(IoT)等数据密集型产业的增长,数据中心的总规模实现了稳步扩张。此外,当前人工智能(AI)和机器学习(ML)技术的蓬勃发展,也进一步带动了数据中心需求的急剧增长。根据 Global Market Insights 的预测,2023 年至 2030 年间,全球数据中心基础设施市场规模的年复合增长率将超过 12%。
数据中心在规模扩张的同时,会导致能源消耗量的大幅增加。麦肯锡预测,仅就美国市场而言,到 2030 年,数据中心的总电力需求将达到 35 千兆瓦(GW),与 2022 年 17 千兆瓦(GW)的需求量相比增长了一倍。这一趋势不仅意味着数据中心的运营成本将显著增加,同时其对环境可持续发展的负面影响也将进一步加剧。
人工智能的突破式发展离不开高性能的 GPU 和CPU支持。此类芯片在运行 AI 和 ML 工作负载时,如训练大语言模型(LLM),会释放大量热量。然而,数据中心的理想运行温度区间通常在 18℃ 到 27℃ 之间。如果运营商不能有效控制数据中心温度的持续升高,将会导致设备故障、系统停机,最终承受巨大的经济损失。
统计表明,大约有 30% 的数据中心停机故障与其运行环境异常有关,相关的影响因素包括温度、湿度和气流等。因此,确保数据中心保持在最佳运转温度范围内,对工作负载的顺利运行至关重要。整体而言,日益严峻的数据中心散热挑战,已经成为运营商亟需解决的难题。
发热量规模到底有多大?
关于发热量规模的问题,我们可以通过一个具体的案例来一探究竟。科技巨头 Meta 近期宣布将购置 35 万块由英伟达(Nvidia)推出的高性能 GPU H100。这种 GPU 的最大热设计功耗(TDP)约为 300W 至 700W。
初步估算得知,一旦这 35万块 GPU 全部投入运行,Meta 相关的数据中心将新增约 100 到250 兆瓦(MW)的发热规模。按照美国能源部的统计方式,这相当于 8 万到 20 万个美国家庭用电时产生的热量。换句话说,Meta 需要通过一种高效的手段,将相当于一个小型城市的耗电发热量从数据中心里移除。
除了科技巨头之外,数据中心的散热挑战对于中小型企业来说也愈发常见。究其原因,一方面是数据中心机柜功率的不断升级,例如70 kW功率及以上级别的机柜正逐渐普遍,导致发热总量大幅增加;另一方面,传统风冷散热技术,如开放式风冷、空气封闭式风冷等,在机柜功率达到 50 kW 时,其散热效果已经明显不足。
因此,数据中心亟需更高效、更节能的冷却方案。幸运的是,液体作为导热介质,其导热性相较于气体更优,这为我们带来了更加行之有效的选择。与此同时,我们可以看到从液体辅助风冷到全浸没式液冷,液冷解决方案也正在不断创新。液冷技术在助力数据中心高效应对由 AI 工作负载带来的散热挑战的同时,还进一步提升了能源的整体利用效率。接下来,让我们简单了解以下四类不同的液冷技术。
技术一:液体辅助冷却
最简单的液冷解决方案是将液冷与现有的空气冷却系统结合,从而提升整体散热能力。例如,后门热交换器(RDHX)通过将标准机架门更换为内置液体-空气热交换器的门,可有效导出芯片产生的热量,辅助提升风冷的散热效果。
该类别中的另一种解决方案是通过将冷空气分配和热空气回流路径与开放式机房空气隔离,从而提高冷却效率。HPE自适应机架冷却系统 (ARCS)便是采用了这种方式,可以同时为 4 个总功率高达 150kW的机柜提供散热能力,进而延长数据中心的运行寿命。
技术二:直接液体冷却(DLC)
更进一步的冷却方案是让冷却液直接接触 CPU 和 GPU 等发热元件。例如,HPE Apollo Gen10 Plus 服务器便采用了HPE Apollo直接液体冷却(DLC)系统。这种高度集成的冷却系统设计,使得服务器风扇总功耗降低了 81%。由于冷却系统能耗通常占据了数据中心总能耗的 40%,因此采用 DLC 技术能够带来显著的节能效果。
技术三:全封闭式液冷
采用了全封闭式液冷技术的服务器,其发热元件在闭环系统中通过液体进行冷却,而无需依赖空气环境散热。HPE Cray Supercomputing EX 系统正是采用了这种技术,从而实现为超级计算机中的大功耗 CPU 与 GPU 元件高效导热。其中一个典型的应用案例就是全球最强大的超级计算机之一“Frontier”,它在 2023 年 11 月发布的全球超算Top500榜单中位列榜首。
全封闭式液冷技术不仅能够支持超级计算机达到前所未有的计算性能,还能够显著提升系统的可持续性。值得一提的是,在同期发布的 Green500 榜单上,前 10 名超级计算机中有 6 台采用了搭载全封闭式液冷技术的 HPE Cray EX 系统。该系统使得“Frontier”在具备强大性能的同时兼具可持续性,帮助其以 52.59 GFLOPS/W 的能效位列榜单第八,成为了世界上最具环保性的超级计算机之一。
技术四:浸没式液冷
浸没式液冷是液冷技术的终极解决方案。它指的是将电子元件或整个服务器直接浸没在绝缘冷却液中,液体直接吸收所有元件产生的热量。由于采用了这种冷却技术的服务器,其各个组件和冷却液被密封在机箱中,因此非常适合条件恶劣的边缘计算场景。
HPE 的 OEM 合作伙伴 Iceotope 与 HPE 和 Intel 联手推出了 Ku:l 数据中心浸没式液冷解决方案。这是一个由 HPE ProLiant DL380 Gen10 服务器驱动的全封闭浸没式液冷加固型迷你数据中心。HPC 基准测试表明,该数据中心解决方案的浸没式冷却系统与传统的风冷系统相比,在单机柜性能提升 4% 的同时,能耗降低 1kW。Iceotope 表示,该方案在 IT 运营中总体上实现了 5% 的能源节约,若进行规模化部署,则可以进一步实现 30% 的能源节约目标。
液冷技术,推动数据中心迈向可持续未来
从极端的边缘计算场景到世界上最强大的超级计算机系统,从新建数据中心到原有数据中心的升级改造,液冷技术在应对高性能芯片散热挑战方面展现出了显著优势,成为提升数据中心能效、促进可持续性的关键技术。
成都强川科技有限公司一四川惠普总代理-成都惠普电脑总代理-四川HPE服务器总代理-成都惠普服务器总代理-成都HPE服务器总代理-成都惠普工作站总代理
联系方式:028-85080466 13880364254(微信同号)央采/校采/企采/政采协议供应商|业务领域:服务器、工作站、台式机、笔记本、存储器等IT设备招投标项项目
成都强川科技HPE惠普产品销售团队经过多年的发展,至今已成功服务超过数千家中小企业的成长。一直以来,我们的十几位销售团队和技术工程师,
坚持以倾听您的需求和愿望为工作核心,以丰富的方案经验和过硬的IT技术,为您提供高匹配度的解决方案,,帮您做出明智的决定。
公司地址 |
成都强川科技有限公司
成都市一环路南二段新世纪电脑城东17楼B座 |