Page 23 - 网络电信2023年8月刊
P. 23
心对环境的耦合要求,甚至可以直接放置在具备网络和电源的 中心设计规范中术语对电能利用效率PUE(power usage
任意空地上。 effectiveness)名词解释为表征数据中心电能利用效率的参
可以简单地将集装箱里面的空间分为两大部分,一个是动 数,其数值为数据中心内所有用电设备消耗的总电能与所有电
力电源部分,另外一个放置服务器的机架部分。集装箱数据中 子信息设备消耗的总电能之比。
心一般采用水冷方式冷却。这个最大的好处占地面积小、安装 由于机房IT设备集成化密度越来越高,伴随着设备所产生
要求低,可以快速部署、快速转移。 的散热及机房散热量日渐趋高,此现象亦受到了各界的高度关
注。根据研究显示,IT/电信相关的碳排放已经成为最大的温室
图2 集装箱数据中心
气体排放源之一,且该领域的排放势头还在随着全球对计算、
数据存储和通信技术需求的增长快速上升,越来越多的人开始
关注绿色机房的建设。PUE(Power Usage Effectiveness,电
源使用效率)值已经成为国际上比较通行的数据中心电力使用
效率的衡量指标。PUE值越接近于1,表示一个数据中心的绿色
化程度越高。统计数据显示,数据中心的冷却占机房总功耗的
40%左右。机房中的冷却主要是由机房空调负责,所以降低机房
空调的耗电量、有效地降低机房的PUE值是当前数据中心尤其是
模块化数据中心设计的重中之重。
在模块化数据中心可以通过以下的方法来降低数据中心的
PUE值:
1、 降低空调本身的耗电量
空调本身的耗电量是最主要控制方向。解决空调自身的耗
集装箱型数据中心将若干IT机柜、供电设备、冷却设备等 电量是降低空调能耗的关键。机房中采用传统的风冷制冷方式
功能设备,包含网络、布线、消控等集成于同一单位体积内。 是比较耗电的运行方式。在大型IDC中采用水冷式的机房空调系
堪称是一个可“独立运行、即插即用、用完即走”的数据中心 统,能比风冷系统节能20%左右。另外采用更为节能的风扇也能
界的“U盘”。由于集装箱数据中心的优势很大程度上要依赖于 降低空调系统的能耗,比如说内置智能控制模块的直流无刷式
其分布式的核心以及管理方式,因此部署集装箱式数据中心架 免维护型EC风扇,由于省去了励磁用的集电环和电刷,在结构
构的重点就是放置于机柜顶部的TOR交换机。TOR交换机可以创 上大大简化,同时气隙磁密得到大幅提高,电机体积缩小,重
建机架级服务器及存储的管理水平和管理能力,并可以为不同 量减轻。
的客户和模块提供必要的灵活性。 2、 充分利用空调冷量
机房空调的冷量不浪费,有效的利用可以很大的提高空
三、模块化数据中心的主要组成部分 调的利用率。前文提到的模块化数据中心通道封闭系统正式提
以最常用的模块型数据产品为例,模块化数据中心主要 高机房空调的冷量利用率的最有效手段。此外,在设计中静电
由供配电系统、制冷系统、机柜、密闭通道、动力环境监控系 地板高度的提升,地板出风口的通风率的提高也是很有效的手
统、综合布线和消防系统等子系统组成。(如图3所示) 段,还可以采用风道上送风和地板下送风结合制冷等方式进行
优化。
图3 模块化数据中心的组成部分 现在机房服务器类负荷的最高散热量近年来已攀升至每机
柜20KW以上。原有地板下送风机房精密空调系统理想送风状况
下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空
调机组送风量也相应增大,其送风风压足以把地板给吹起来),
已无法满足其需求。因此采用最靠近发热源的列间空调就近制
冷也是越来越受到重视。
3、 避免气流阻塞
正确地选用ICT基础设施产品对设备散热也起到至关重要
的作用。比如在光纤布线中采用天诚1U机架式192芯预端接光纤
配线架,上下均无挡板,对机柜气流的影响降到了最低,同时
也节省宝贵的空间(见图4);再比如在铜缆方面选用4.0mm超
细跳线,比常规的6.0mm跳线节省更多空间,使机柜气流畅通无
阻,避免布线产品由于线缆过多导致气流阻塞从而形成的机柜
内局部热点,从而对PUE做出一定量的贡献。
四、 模块化数据中心的PUE 最后,PUE无论怎样变化,都是大于1的分数,要做到最佳
根据中华人民共和国国家标准GB 50174-2017数据 节能,降低服务器等IT设备的功耗,才是最有效的方法。
网络电信 二零二三年八月 67