摘要:其实对于节能,传统技术也是做了“十二分”的致力。然而在技术一直演进的状况下,传统节能技术还是存在问题,如何破?
本文分享自华为云社区《数据中心节能?来试试华为 NAIE 数据中心节能技术!》,原文作者:启明。
一、3 年电费耗费,可再建造一个数据中心!
1.1 科技驱动,推动数据中心市场继续高速倒退
国际惯例,先介(bai)绍(du)一(bai)下(ke)“数据中心”:数据中心是寰球合作的特定设施网络,用来在 internet 网络基础设施上传递、减速、展现、计算、存储数据信息。一个数据中心的次要目标是运行利用来解决商业和运作的组织的数据。
现如今,咱们曾经处在一个全联接的世界。从 2015 年到 2025 年,依据华为 GIV 的数据预测,寰球智能终端联接数将从 70 亿激增到 400 亿,寰球联接数也将从 200 亿激增到 1000 亿。而在硬件数和联接数激增的背地,是数据流量的爆发式增长:年数据流量将从 9ZB 以 20 倍的速度涌至 180ZB(见图 1)。
图 1:数据来源于 HW GIV
数据流量的极速增长,加上政府对各新兴产业的鼎力搀扶,数据中心的倒退建设将迎来高速倒退期间,依据 MarketsAndMarkets 的数据统计预估,寰球数据中心的价值将从 2017 年的 130.7 亿美元增长到 2022 年 465.0 亿美元(见图 2),这其中的 CAGR(Compound Annual GrowthRate,复合年均增长率)高达 28.9%。其市场规模及市场价值,显而易见。
图 2:数据来源于 MarketsAndMarkets
1.2 高电力耗费,数据中心产业“背地的暗影”
“阳光背地总有暗影”。高产业价值的背地,是高电力耗费。作为“数据中心”,能够设想:一个大型机房,外面稀稀拉拉地布满了各式各样的机柜、服务器等。数据中心的后期根底建设和投资,将会是一笔巨额数字。而一旦启动应用,这其中的电费,又将是一个天文数字。咱们能够用一个大型数据中心 10 年的经营老本状况来看看这其中的电力应用状况:
从下面的表格能够看到,该数据中心每年电费将近 3600 万,其中有 70% 都用于电费,而 70% 的电费中,又有 19% 用于制冷上。且据 2017 年统计,寰球数据中心用电量占寰球用电量的 3%,年增长率超过 6%,相当于 30 个核电站;仅中国的数据中心用电量每年就有 1200 亿千瓦时,超过三峡电站 2017 年全年发电量(1000 亿千瓦时)。计算下来,数据中心 3 年的电费能够再造一个数据中心!
1.3 内部政策 + 经营挑战,数据中心产业节能成必然趋势
数据中心背地的电费数据如此惊心动魄,以至于在国家层面都有相干的政策对能效指标提出了严格的要求:如,工业和信息化部在《绿色数据中心领导意见》中要求新建的数据中心的 PUE 要小于 1.4;对于北京、上海、深圳等地也对 PUE 有布局的要求,特地是深圳市发改委激励新建的数据中心的 PUE 要小于 1.25,这其实是一个很有挑战的数字。当然,欧盟和美国对 PUE 也有相应的本人的标准。毕竟,节能,就意味着降低成本,进而增加利润。
要解决能耗问题,咱们须要先把能耗问题列成一个公式,进而通过升高或减少公式的某个值来达到升高能耗的目标。这个公式就是咱们后面说的 PUE 的计算方法。
PUE,即 Power UsageEffectiveness,电能应用效率。PUE= 数据中心总能耗 /IT 设施能耗,其中数据中心总能耗包含 IT 设施能耗和制冷、配电等零碎的能耗。PUE 的值,必然是大于 1 的。举个例子,如果 PUE=2,那就意味着,IT 设施每耗费 1 瓦特的电量,就须要额定再耗费 1 瓦特的电量对它进行配电和冷却。当然,如果在现实状况下,如果所有的电力全都耗费在 IT 设施上,也就是说所有的电力全用于生产,那么这时候的 PUE 就是等于 1。
下图为一个数据中心的能耗单元详情:
能够看到,一个数据中心的能耗单元包含冷水机组,水泵,IT 设施,风扇,新风照明等等,这些单元的能耗处于分子的地位。PUE 越靠近 1,则应用效力越高,越省电,越省钱。那么要节电,很天然的,咱们会从分子动手,即非 IT 能耗(次要为制冷性能)。
1.4 找到原理,数据中心如何制冷
在想解决办法之前,咱们先看看数据中心的制冷原理(下图为制冷简图)。
整个零碎能够分为冷冻站和末端机房两局部,这边虚线的左侧是冷冻站,它包含冷却塔,制冷机组,各种性能的水泵以及贮存冷水应用的蓄冷罐;虚线右侧则是咱们的 IT 设施机房,外面除了服务器机柜外,还要用来吹出冷风的空调。空调的冷源即来自于左侧的冷冻站。
简略来说,整个零碎制冷系统就是把 IT 设施里服务器散发进去的热量给搬移到室外去,制冷系统的耗电单元也很直观,就是图上的冷却塔,冷却泵,冷机以及空调等。
当然,上图只是一个简略的原理图,理论中的制冷图会远比上图简单的多。那么简单的零碎咱们该如何节能呢?
1.5 技术演进下,传统节能技术的局限
其实对于节能,传统技术也是做了“十二分”的致力。然而在技术一直演进的状况下,传统节能技术还是存在以下问题:
产品级节能技术利用已靠近天花板;
零碎简单、设施多、各设施间能耗影响关系盘根错节,难以用传统工程学公式模仿,传统管制形式各自为政,专家教训作用已达极限;
每个数据中心都是独特的环境和架构,尽管许多工程实际和教训法令能够全面利用,但一个零碎运行的定制模型并不能保障另一个零碎的胜利。
二、NAIE 数据中心节能技术如何助力节能
2.1 业界共识,AI 助力数据中心节能
如后面所说,传统节能技术曾经无奈满足数据中心节能的需要。大家开始寻求新的形式。
现如今,业界的共识是应用 AI 来调节整个制冷系统,让各个设施运行状态互相匹配,从而达到最佳状态。依据 Gartner 的用户调研显示,截止 2020 年,30% 未做好人工智能筹备的数据中心,其业务将不再具备经济性。同时,调研还列举了人工智能改善数据中心日常经营的三种形式:
- 利用预测剖析优化工作负载调配,施行优化存储和计算负载平衡;
- 机器学习算法以最佳形式处理事务,用人工智能来优化数据中心能耗;
- 人工智能可缓解人员短缺,主动执行零碎更新、安全补丁。
“应用 AI 来调节制冷系统”,最有名的是 Jim Gao 和 DeepMind 团队的单干。他们应用神经网络别离预测了 PUE、数据中心的温度、负载压力,来管制大略 120 个数据中心的变量,从而实现 PUE 的升高。
业界对于 AI 技术进行数据中心节能曾经有十分胜利的利用,接下来,咱们看看 NAIE 数据中心是如何助力节能的吧!
2.2 华为 NAIE 数据中心节能技术
就“节能”而言,其实是一个十分大的话题,而 NAIE 数据中心节能,也是蕴含了很多方面,咱们明天的介绍,以“制冷系统节能”为主。针对“制冷系统节能”,NAIE 数据中心节能有以下 4 个“伎俩”:
2.2.1 原始数据特色工程
对于数据中心的制冷系统,个别都有着简单的管路布局、装置的制冷机组(水泵,水塔等设施),并且除了这些设施之外,还有数不清的传感器。同时,不同的数据中心,依据选址的不同也会有各方面的差别,最终导致管路和设施都是不一样的。
针对这些数据差别,咱们能够通过 AI 算法屏蔽:通过特色工程去解决一些简单的构造,比如说单管、母管、环管等;依据不同的管制,咱们想方法提取对立的特色,而后针对不同的设施,如冷塔、冷机、热交换机、水泵、空调等,综合提取比拟靠近的特色;最初,对数据进行校验,对缺失的数据给予补齐,对谬误的数据机进行纠正,对异样的样本进行删除。
因而,通过特色工程,咱们能够将局点采集到的数据加工成一个比拟对立的模式,提供给前面的 AI 算法。
2.2.2 能耗预测和平安保障模型
要节能,首先须要有一个能耗预测模型。建设一个好的模型,是预测如何调节制冷系统节能的一个良好开端。但面向工业管制畛域的预测模型,与预测股票走势,或者是地铁人流量的模型有一个比拟大的区别:对平安的管制。毕竟平安生产是第一位的,省电省钱才是第二位的。
所以 NAIE 数据中心节能预测模型不是一个简略的、独立的模型,而是一套模型:不仅要预测在调节之后的能耗,还要预测各个智能零碎的状态。要保障在所有零碎状态失常的根底上,再去节能。
2.2.3 控制参数寻优
后面两个“伎俩”的介绍,曾经为节能算法打下了良好的根底。到了第三个“伎俩”,就要出“问题”了。咱们搜寻到的控制参数是不是“优良”,齐全是由第三个“伎俩”的品质来决定的。“能耗预测和平安保障模型”提供了一个很好的能耗和状态预测的模型,能够把这个模型设想成一个超曲面图形(如下图)。当然,它的形态是画不进去也很难设想的,因为咱们解决的是一个高维空间的问题,并且在这个超曲面上还有很多的空洞,这些空洞示意不平安的控制参数。那么咱们第三个“伎俩”的目标就是为了又快又好的找到其中更优或者最优的控制参数,下发给设施来执行。
![上传中 …]()
2.2.4 NAIE 云地协同
云地协同,即是买通了云端和地端,实现数据采集上云,模型日常评估,重(chóng)训练,模型更新全流程的自动化的服务。
简略阐明一下:数据采集,即新的样本;模型的日常评估,即决定什么时候更新;重训练,即从新训练的流程,最初达到模型更新全自动化的目标。(具体框架图见下)
NAIE 的云地协同,在云上有 NAIE 的数据湖、数据中心 PUE 优化模型生成服务,以及 AI 市场(AI 市场用来治理生成的模型包);在客户网络的地端,有网络 AI 框架(运行模型生成服务生成的模型的平台)。地端的网络 AI 框架负责样本采集及治理,同时还负责使用新的样本一直地对生成的模型进行评估。如果发现采集的样本的散布产生了显著的变动,或者说是模型精度老是不达标的时候,就会触发去重建模型。
同时,网络 AI 框架通过华为的 Cloud Opera Neteco 零碎与数据中心的理论控制系统进行了对接。如此一来,由模型生成的控制参数能够间接下发到理论的群控系统外面。
2.3NAIE 助力数据中心节能,所向无敌
华为的某数据中心,在 NAIE 的加持下,全年的 PUE 通过优化之后,比照应用 AI 前,PUE 升高了 0.12,换算成电力,也就是每个采样周期能够升高 328.6 千瓦的耗电。这样算下来,一年能够省掉 580 万元的电费,一个相当可观的数字。
NAIE 模型生成服务
不同的数据中心,在制冷模式(水冷、风冷、AHU 等)、管路类型(母管、单管、混合管)等方面很可能存在差别,咱们该如何动手呢?
这里就要用到咱们后面说的“特色工程”。如咱们后面所说,“特色工程”的用途就是可能屏蔽 AI 算法的诸多差别,可能尽量造成对立的特色。
一般的建模(如下图),针对开发人员:从节能建模到模型利用,须要开发人员 4 个,历时 6 个月。
而 NAIE 在“特色工程”与“老专家”的技术加持下,曾经为大家筹备好了前序条件,咱们来看看 NAIE 的几大亮点与劣势:
- 零编码高效建模:基于华为的数据中心拓扑模板、AI 模型训练平台和 PUE 特色 / 算法库,能源工程师只需提供基础设施运行数据和制冷设施工艺参数,无需任何编码,即可在线失去匹配其数据中心的 AI 模型,模型开发工夫从 8 人6 月升高到 1 人1 月,整个模型的开发投入升高 95% 以上;
- 参数配置灵便可视:基于华为在数据中心畛域可视化的参数配置,通过调整参数,即可生成不同拓扑模板下数据中心的 PUE 模型;
- 控制策略全面:通过导入数据中心基础设施 PUE 相干全量参数,模型能推理出全套制冷设施的控制策略,如冷水机组、冷却泵、冷却塔、冷冻泵、板换等,帮忙能源工程师灵便精准地调控制冷系统,以达到最佳能耗状态;
- 优化成果好:通过业余的特色辨认及解决,模型拟合成果好。在数量质量保障前提下,PUE 预测准确率达到 95%。
通过数据中心 PUE 优化模型生成服务官网(https://console.huaweicloud.com/naie/products/dpo),能够疾速体验服务:点击“性能演示”:
进入服务介绍页面,依据领导一步步往下走,即疾速便捷体验数据中心 PUE 优化模型生成服务。
数据中心 PUE 优化模型生成服务联合 AI 技术与数据中心工程教训,提供自动化建模工具(如数据中心拓扑模板、PUE 特色 / 算法库、模型训练平台),帮忙数据中心畛域工程师 0 根底 0 编码,只需输出数据中心基础设施的运行数据,即可在线失去无效的 PUE 优化模型,一起来试试?
点击关注,第一工夫理解华为云陈腐技术~