绿色数据中心节能分析

2024-05-15

绿色数据中心节能分析(精选九篇)

绿色数据中心节能分析 篇1

作为全国唯一一个由企业进行运营管理的超算中心,它是厦门市乃至海西地区第一个面向社会开放,资源共享,设施一流,功能齐全的高性能计算公共服务平台。全球能效管理专家施耐德电气旗下的APC携手厦门超级计算中心为其打造绿色高性能数据中心,凭借以往在超算领域丰富的数据中心搭建经验,结合厦门超算的实际情况和需求,为其量身定制了包含空调、机柜和电力分配单元在内的Infra Struxure英飞解决方案,并提供涵盖设计、部署、运营及维护的全生命周期服务。

厦门超级计算中心本着 " 绿色超算,服务海西 " 的宗旨服务海西地区的科研机构和企事业单位,一期实现每秒200万亿次的峰值计算能力和500TB的数据存储能力,中心秉承“以企业应用为基础、市场需求为导向”的理念,面向海西地区多个行业及领域提供“云计算”与“超级计算”服务,为地方的信息化建设及经济发展提供强力的支撑。

背景

美亚柏科厦门超级计算中心负责人张旭表 示 :“在构建 超级计算 中心时,制冷与配电是数据中心基础设施建设中非常重要的一部分。因为现在的服务器包括机柜,其方案基本是固定的。那么制冷和配电就要根据机房的形状,包括机房产生的热量来选择不同的产品、不同的方案以及不同的实施环境。”

“厦门超算采用全国首例开放式环形机房,让大家能近距离感受超级计算的魅力。但是,这种形式的机房有效面积比方方正正的机房要小一些,而计算热量需求也相应增加,因此对制冷的要求就非常敏锐。”

此外,大数据的出现导致数据中心IT基础设施投入成本加大,虚拟化有助于降低IT基础设施成本,但同时产生的是功率密度大幅提升和随之而来的制冷问题。超算中心需要高密度制冷解决方案,实现高效节能。

数据中心 制冷”量体 裁衣”

“厦门超算是公共开放计算平台,应用于科学研究、动漫渲染、哈希计算、公共服务、商业金融等多种领域。目前该中心利用率达到80%。在制冷方面,主要采用水冷 +GPU的混合模式。”

“在建设该超算中心时,经过广泛的市场调研与评估,选择与施耐德电气合作,进行机房设计、模拟计算,施耐德电气根据需求不断完善方案。首先,施耐德电气在数据中心机房解决方案里的知名度很高,可以提供可信赖的高可靠技术设施方案。其次,由于环形机房的特殊性,需要三个月左右的时间进行论证,这期间施耐德电气专业的技术与团队给予了很大的支持与帮助,根据机房的实际情况,量身定制最适合的解决方案。此外,其产品的模块化设计能够为之后的部署和实施带来便利,方便后期进行集成,并能大大节约成本。”

高效运维 绿色节能

“一直倡导绿色节能的超算中心,其具体的量化指标就是PUE (数据中心能源效率)。厦门超算的PUE值在1.5左右 ,而传统的值是2,所以仅从电费支出这一项计算,每年可以节省上百万的电费。”

“在此次项目中,施耐德电气主要为超算中心提供了32台机柜和8台行级的冷冻水型空调,结合热通道封闭系统,打造了一个机柜遏制系统的高密度制冷解决方案。冷冻水型相较于传统风冷型更节能,通道遏制系统极大地改善冷热交换的制冷效率,而机柜级的解决方案使得制冷更精确、无遗漏。这种解决方案美观大方,符合超算中心对技术和视觉规划的定位。”

“施耐德电气In Row ACRC103行级空调不 仅可以应 对10-12k W的IT负载,更可以做到对负载的动态响应,让制冷量可以跟着负载走,使数据中心在各种情况下都能拥有很好的能效表现。此外,采用了InfraS truxure TM英飞解决方来进行数据中心的监控管理,案,智能的图形化管理界面可使IT人员能够实时掌握数据中心运行情况,降低管理难度,从而达到节省成本的目的。”

“在部署的时候有一套统一的机房管理系统。不管是风冷与水冷系统、配电甚至是机房环境系统,包括服务器,都纳入到统一的管理平台,拥有相应的有专业维护团队和相应的制度。运行了两年的时间,在维护方面还是比较顺利的。另外对于水冷空调可以说是在机房环境里最担心也是最重视的,这部分除了自己的团队有定期的巡检,施耐德电气的团队也会定期来现场做一些检查、确认、包括巡检工作,他们的优质服务保障了数据中心这两年地顺利运行。”

打造超算 行业高密 度制冷典 范

“由于物理环境限制,超算行业对运算能力要求日益增 加。随着CPU、GPU的升级,运算能力提高的同时提升了密度,这对数据中心基础设施带来了挑战。制冷量更大,要求更精确、更节能与更有效率。”

“采用施耐德电气提供的完整数据中心解决方案,实现了全生命周期的管理,打造了绿色节能的超算云计算中心,在最大程度地提升系统运算能力的同时大大降低了系统能耗,实现了节能减排。借助施耐德电气在数据中心能效管理及总体拥有成本等方面的优势,以为企业用户提供传统的超级计算服务,以及新兴的Saa S与Iaa S服务。”

关于施耐 德电气旗 下的APC

施耐德电 气旗下的APC (简称APC) 是全球领先的关键电源与制冷服务提供商,为家庭用户、办公场所、数据中心以及生产制造应用环境提供业内领先的产品、软件及系统。施耐德电气旗下的APC以持续创新为己任,致力于为关键技术和工业应用提供创新型能效解决方案,在整个服务生命周期内能够实现周全的计划、无缝的安装,并进行定期维护。APC解决方案包括不间断电源 (UPS)、精密制冷产品、机柜、物理安全以及规划和管理软件,其中也包括业内最全面的涵盖电源、制冷与管理的整体解决方案。

关于施耐 德电气

绿色数据中心节能分析 篇2

有人说,建立“绿色数据中心”首先从围护结构开始,要加强机房的保温,对这种说法给出评价。

答案:答:通过改善围护结构,可以降低夏季空调冷负荷,从而降低空调系统能耗,但是通过围护结构改善带来的节能效果有限,通常,维护结构传热带来的夏季空调负荷占总空调负荷不到5%。另外,在冬季,如果加强保温反而会使空调负荷比不加保温时要高,所以,机房在维护结构方案应做如下考虑:(1)合理选择机房围护结构保温性能。要求机房围护结构在凉爽、寒冷时段能够充分对外散热,同时最冷天不需要采暖。(2)采用遮阳措施,最大限度降低围护结构的太阳辐射得热。您的答案:通过改善围护结构,可以降低夏季空调冷负荷,从而降低空调系统能耗,但是通过围护结构改善带来 的节能效果有限,通常,维护结构传热带来的夏季空调负荷占总空调负荷不到5%。另外,在冬季,如果加强保温反而会使空调负荷比不加保温时要高,所以,机房在维护结构方案应做如下考虑:(1)合理选择 机房围护结构保温性能。要求机房围护结构在凉爽、寒冷时段能够充分对外散热,同时最冷天不需要采暖。(2)采用遮阳措施,最大限度降低围护结构的太阳辐射得热。

绿色数据中心时代来临:节能又省钱 篇3

互联网使用的急剧增加和相伴而生的对带宽需求的增加, 导致数据中心的数量、规模和密度也随之急剧扩大。虽然数据中心历经升级, 但仍然难以跟上新媒体需求的步伐。63%的IT经理说, 不知不觉中他们的数据中心就用完了所有空间、电源或散热容量。另有43%的IT经理认为, 以他们现在的增长速度来看, 目前的基础设施如果不做改变, 顶多只能维持6个月。因此不用奇怪, 有36%IT经理正在规划或建设新的数据中心。

系统可靠性:数据中心在变热

目前数据中心所消耗的电力已占到美国全部电力使用量的2%, 预计到2020年, 这一数字将激增到9%。在所消耗的电力中, 很大一部分是为了满足网络电子设备与楼宇运行的需要。这些电子技术会产生大量的热, 这是数据中心所面临的主要问题之一。随着温度的升高, IT硬件的可靠性大幅降低。据估计, 温度升高10oC (18oF) , 电子设备的长期可靠性降低50%。

具有讽刺意味的是, 数据中心运行所依赖的一些核心网络电子技术产生的热量正是会导致其效率和寿命降低 (如图1所示) :网络设备每消耗1W功率, 便需要配备1W的散热功率。

这些配件的频繁更换导致垃圾填埋场的废弃物增多, 同时提高了运行成本。随着刀片服务器等高密度电子设备的使用越来越普遍, 一台典型服务器的成本将低于支持其运行的散热成本。

为了控制空气流动, 大多数数据中心都采用了冷 (电子设备) 通道和热 (地下布线和无源布线) 通道的模式。这种模式中, 冷空气的添加和热空气的移除都受到很好的控制, 使得散热设备的运行效率更高。值得指出的是, 热量对无源布线, 无论是UTP铜缆还是光缆的影响, 都要比对有源设备的影响小 (如图2所示) 。

浪费在散热上的能源相当于浪费资源和金钱。由于气流管理效率低下, 大型数据中心提供的散热容量最高达到了设备所需散热容量的270%。为了减少这种浪费, 请遵循下面几条关于热管理的黄金法则:

(1) 使用档板阻止热空气循环。

(2) 使用开放面积至少为60%的通风门。

(3) 分散放置刀片服务器, 防止在数据中心形成“热点”。

(4) 根据典型平均值确定计算机房的空调容量。

(5) 调低空调温度不能解决制热/散热问题。

(6) 使用模块化热解决方案限制初期投资。 (7) 使用综合布线系统限制气流阻塞。

(8) 合理设计和管理架空地板下的电缆。

◆高压电缆敷设在冷通道的地板下;

◆低压通信线缆放在机柜下或直接放在热通道地板下。

(9) 减少天花板的数量, 或只是在有源机柜上方放置天花板。

结构化的考虑:今日所选系统决定明日所获性能

减少浪费可以从许多方面入手。无源系统中, 使用综合布线将极大减少电缆用量, 从而缓解通道拥挤和气流阻塞情况。空气流动的空间越大, 热空气移除和冷空气循环所耗费的能源就越少。综合布线是使用主干电缆将大量光缆或铜缆敷设至一个区域, 然后再在电子设备区域分成若干小段电缆。

以“本垒打”方式敷设电缆不仅会加重电缆密集程度, 还会对电缆的移动、添加或更改造成问题。当电缆盘中的一根电缆被正在传输信号的其他线缆包围时, 很难移除该电缆。因为不愿意冒通信中断的风险, 系统操作员通常会决定在旧电缆上再敷设一根新电缆。这将会造成气流通道堵塞, 增加通风空调系统 (HVAC) 的工作负荷。使用主干电缆则无需扰动链路, 在靠近电子设备的配线区就能完成全部配置, 系统中断的风险非常有限, 总体工作量也大为减少, 因此应当优先考虑这种布线方式。

和多根单双芯光缆相比, 高芯光缆还有一个优点, 即能提供更高的密度。针对SC光缆接头的传统2.9mm光缆所占用的空间是主干光缆的7倍, 即使带LC接头的较低密度1.6mm光缆也只占用2倍的覆盖面积。在如今的主干光缆设计中, 松套管光缆能提供最佳的密度 (如图3所示) 。

在数据中心环境散热不佳的原因中, 布线问题始终高居榜首。虽然布线系统耐热, 工作温度可达140oF (60oC) , 但气流阻塞可能会引起局部“热点”, 使其温度远高于房间平均温度。使用综合布线来降低占用空间将有助于把设备工作温度维持在可接受范围以内 (如图4所示) 。

更长远的考虑:目前以及未来的系统需求有哪些

一旦主干电缆敷设到位, 它就成为系统主干, 将持续运行很多年。然而电子设备和软件的更换周期一般是三到五年, 但布线系统的更换周期则长得多, 因为将电缆穿入和拉出运行中的系统并非易事。这意味着目前安装的布线系统必须满足将来很长一段时间的需要。大多数数据中心在为10G传输速率进行规划。OM3光缆和6A类铜缆布线能够在数据中心的典型距离上达到该速率。

对于目前以10/100/1000Mbps速度运行的数据中心, 6类电缆似乎适合目前的需求。这也符合《数据中心电信基础设施标准》TIA942的指导原则, 该标准规定布线安装的最低标准。但是, 如果考虑要在未来三到五年支持万兆应用而进行网络升级, 则安装更高带宽的6A类电缆将能满足当前及未来的需求。这种铜缆能提供高性能传输, 支持设备端如服务器和存储设施的万兆传输连接。

许多网络设计者都在寻求长期解决方案。经历过几次技术更新后, 如果布线能持续运行20年时间, 则很显然, 我们必须开始对下一代的技术要求做出预测。标准制定机构内部正在讨论40/100GbE和16/32G FC数据速率技术, 新的标准预计将在2010年公布。要实现如此高的数据速率解决方案, OM162.5μm和OM2 50μm光缆将不能满足需求。OM3 50μm光缆将是公认适合这些即将到来的高速应用的最低性能光缆。

目前能在500m以上距离实现10Gbps以太网性能的延伸型OM3光缆, 将会被标准机构纳入并称之为OM4, 它们也将支持40/100GbE以太网应用。在考虑安装延伸型OM3光缆时, 一定要保证该光缆需符合TIA492AAAD标准草案规定的邀请, 该草案是OM4光缆的标准大纲。

此外, 正确考虑光缆芯数也至关重要, 以便每次采纳新应用时, 不必铺设或推迟铺设新的主干电缆。40/100Gbps的应用将很可能运行在“并行光缆”上, 这个过程很简单, 即是将高速数据流拆散, 分别在多根光缆上传输, 通过无源系统发送, 最后将这些信号重新合并起来。美国国内和国际的标准组织正在评审各种使用MPO接头的光缆方案, 例如在100Gb E传输的方案中, 使用10芯光缆作为发射信道, 再使用另外的10芯光缆作为接收信道。对于系统设计者而言, 这意味着数据中心内的很多位置至少必须拥有24芯光缆才能确保将来有能力运行并行光缆应用。

据预测, 大约70%的数据中心经理仅四年后就更换了布线系统 (BSRIA 2007 survey) 。延长布线系统的使用寿命能使初期的IT采购决定变得更加容易, 因为可以降低再次采购的成本。安装优质的布线系统将减少将来的材料浪费以及与电缆更换带来的麻烦和相应成本。

数据中心设计者在选择铜缆和光缆时, 除了要考虑电缆所能提供的带宽外, 还必须综合考虑初期电子设备投资与热产生和维护所带来的长期成本, 而对铜缆和光缆都很了解的布线系统供应商可以帮助您理清这些问题。

更明智的考虑:是你在控制网络还是网络在控制你

以当今数据中心的规模和活力, 我们不能再仅仅局限于考虑“速度快”这一系统要求。它还必须是可管理的, 能够支持各种增长和变化。部署智能基础设施管理系统将使IT经理能更好地了解和掌控网络, 从而更高效地利用能源、网络资产与自然资源。智能化基础设施能让您对网络中的所有可用交换机端口了如指掌, 从而只需部署最少数量的交换机, 减少网络的总体功率消耗。

简单网络管理协议 (SNMP) 与联网设备 (如温度传感器等) 通信, 并在可能发生能源消耗问题时发出警报通知。因为智能基础设施系统能够实时识别网络上各个资产, 因此您可以进行监控, 并在非业务时段实施资产关机策略以节省能源。可以远程发送电子邮件通知来关闭联网的复印机、打印机和台式机 (如图5所示) 。

使用智能基础设施管理系统将能更好地利用资源, 降低维护成本, 更快地实施变更, 减少停机时间, 提供更高的服务性能水平, 从而提高收益。

减少数据中心中的材料浪费和能源低效使用有很多种途径。对无源系统进行优化能为打造绿色数据中心做出巨大贡献。若能在设计过程中就召集综合布线厂商与网络设备、能源、通风空调系统等厂商一起讨论, 打造出高效的设计, 即减少环境废物, 以低成本提供高性能的系统, 创造使用寿命长的高效解决方案。

美国康普的绿色行动

美国康普企业解决方案部门已加入绿色网格联盟 (The Green Grid) , 这是一个致力于提高数据中心和业务计算体系能效的全球联盟。作为该联盟的一般成员, 美国康普将与其他成员公司协力合作, 获得有关数据中心内部能效改进的大量信息。

美国康普的绿色行动还包括将高能效的节能实践带给客户。比如, 美国康普智能楼宇基础设施解决方案 (IBIS) 即采用支持安全、照明、暖通空调和通信等多种楼宇系统的单一主干网络, 以便在提升效率和生产率的同时, 提高舒适度。

绿色施工节能材料资源利用技术分析 篇4

摘 要:当代科学技术的不断进步加速了人类文明发展进程,但是也使得人类社会生产中面临着一系列生态环境问题。环境污染严重、能源损耗过渡、气候变化异常、生态破坏严峻等问题时刻威胁着人类的生存和发展,也给社会经济发展造成不必要的损失。在这种社会现实面前,人类逐渐认识到环境的重要性,在各种生产工作中都提出了节能、环保、绿色的发展口号。建筑施工作为引起环境问题的重要组成部分,实施绿色施工节材和材料资源的利用尤为重要,是未来建筑领域发展的基础前提。本文通过我国建筑施工现状分析,着重探讨了绿色施工节材和资料资源利用技术的应用旨在为同行施工提供参考。

关键词:绿色施工;绿色建筑;环境问题;节约能源;利用

随着经济的不断发展和人类物质生活水平的提高,人类对于各种事物认识也逐渐深入,尤其是在环境保护方面,更是形成了系统、科学的管理流程。在城市发展和社会建设不断深入的今天,我们在工作中必须要优先考虑到生态环境问题,并将其置放在经济和社会同等重要的地位。建筑工程作为能源消耗的大户,也是引起环境问题的主要原因,为此在工作中我们有必要结合绿色环保、可持续发展策略进行研究,针对其中的问题进行深入系统的归纳和总结,从而选择出科学有效的管理方法。我国建筑施工现状

我国改革开放以来的三十多年时间里,我国的建筑施工技术取得了长足的进步,但是其施工质量、施工技术水平、施工管理策略方面与西方国家相比还存在着鲜明的差距。在经济全球化发展趋势的带动下,我国的建筑施工技术是完全可以和国外发达国家相比较的,但是就施工细节而言其中问题还较为严重,这主要是我国的工程施工人员的技术水平低、专业素质不高、工作积极性差等影响造成的,其主要体现在以下几个方面:

1.1 施工方面

基础工程在建筑工程项目中是最为重要的内容,也是后续工作得以顺利开展的关键环节。为此,在工作中做好基础施工控制和管理工作十分关键。但是由于我国基层施工人员大多都是来自于农村打工的农民工,这些人员本身存在着技术水平低、安全意识淡薄、环保意识低的特点,这就造成了在施工中材料损耗严重,各种技术不标准造成了工程质量也存在着一定的问题。

1.2 管理方面

目前,随着我国建筑业的日益繁荣,建筑领域的竞争越来越激烈,工程企业要想在竞争中利于不败之地,就必须对施工管理进行完善和优化,以此提高和增强自身的竞争力。但是,工程项目的管理工作本身就是一个系统工程,其包含了风险管理、投资管理、合同管理、进度管理等多个环节,为此在工作中必须要要对这一问题进行深入的研究和归纳。但是,由于我国国情、社会现状的原因,我国大多数施工企业都存在着管理不完善、不科学,这就引起工作人员在施工中我行我素,造成资金浪费严重、材料损耗较多等问题,不仅无法达到工程预计效益标准,而且更是严重的影响了企业经济效益。绿色施工概述

基于上述的种种问题,在现代化工程施工建设中做好绿色节能建筑尤为关键,这也是时代发展的需要。在科学技术飞速发展的新世纪,人类文明进程不断加快,与此同时受到传统建筑施工技术的影响,使得在建筑工程施工中还面临着严重的问题,如施工技术不科学、施工材料浪费严重、施工管理不完善等,这些问题的存在极大的影响了施工进度和效益,也给可持续发展战略的落实造成不必要的影响,为此,在目前的工作中实施绿色施工技术有着不可忽视的意义。

2.1 绿色施工分析

施工活动是人类对自然环境以及后代子孙影响最大的活动之一,为了在目前的工作中更好的保护环境、节约能源、做到可持续发展战略要求,在施工工作开展的同时还需要保护好周边环境,做到节能、环保和可持续发展要求。所谓的绿色施工主要包含三个方面:减少施工带来的环境污染、结合当地气候进行施工、节约施工材料。

2.2 节材和材料资源利用目标

工程在设计上结构体系合理,主体采用了框架剪力墙结构,在独立的结构单元内,平面规整,竖向无凹凸变化;局部透明屋面采用了钢结构,减小荷载的同时降低了结构构件的截面尺寸。在施工方面,项目部重点从钢材、混凝土、木材、模板、围护材料、装饰装修材料及生活办公用品材料七个主要方面进行控制。通过安排材料采购的合理化,建筑垃圾减量化,可循环材料的多次利用化,钢筋配料,钢构件下料以及安装工程的预留、预埋,管线路径的优化等措施;同时结合设计的要求,积极采用先进的施工工艺,达到节约材料的目的。绿色节材和材料资源利用措施

3.1 钢材控制

项目部按照要求选用高强度钢筋,推广钢筋专业化加工和配送,并根据施工进度、库存情况对本工程建筑钢材堆放有序,避免将钢材暴露在潮湿环境中,同时进行详细分类,量化控制、合理安排材料的采购、进场的时间和批次,最大限度地减少库存量。

3.2 木材控制

3.2.1 精确控制方木、板材等木工用料的进场计划。材料用量计划提出后,先由木工工长进行核对,木工工长审核通过后报预算审核,从源头控制材料用量,大大降低了生产成本。

3.2.2 木材截余材料的合理再利用。施工中使用的竹胶板、梁、柱模板根据配料单统一发送,减小整张板的现场切割数量。无法使用的废弃板材则多用于专业、土建预留洞口的封盖。

3.3 模板控制

3.3.1 木工工长提前排板,优化模板用量,最大限度减小损耗量,并采购质量优良的板材,不易变形、损坏。

3.3.2 根据工程结构对称的设计特点,AB区对称、CD区对称的建筑形式,合理分区,划分流水段,对称结构最大限度地重复使用。经统计,钢模板实际接触面积为12323m2,多层板实际接触面积为43164m2。

3.3.3 对于非对称结构不能重复使用的模板,用于二次结构。结构封顶后仍可重复使用的模板则用于外线工程。

3.3.4 模板拆除后,立即进行模板表面的清理、刷水质脱模剂,使模板处于保养状态。

3.4 围护材料控制

3.4.1 本工程依据绿色建筑设计的要求,门窗、屋面、外墙等围护结构材料均选用耐久性良好的材料。

3.4.2 施工临时办公区用房和生活区用房,选用彩钢板可周转式活动房,用量为2697m2。

3.4.3 施工现场围挡则最大限度地利用正式铁艺围墙,减少了施工中临设材料的使用。临时围挡施工完毕后统一回收,维护再利用。

结束语

实施绿色施工,我们主张尽可能减少场地干扰,提高资源和材料利用效率,增加材料的回收利用等,但采用这些手段的前提是要确保工程质量。好的工程质量,可延长项目寿命,降低项目日常运行费用,利于使用者的健康和安全,促进社会经济发展,本身就是可持续发展的体现。

参考文献

绿色数据中心节能设计与建设初探 篇5

数据中心已经成为新的电老虎。根据美国环保署报告, 2006年美国的数据中心累计消耗610亿度电, 占全美当年总耗电量的1.5%, 电费约45亿美元, 超过美国所有电视机耗电总和, 约等于580万个家庭用电量。预计到2011年, 美国的数据中心将消耗1000亿度电, 占全美总耗电量的2.5%, 其电费将达到74亿美元。为满足数据中心耗电需求, 美国需要新增10%的发电量。

全球数据中心耗电量同样增长惊人, 据IDC报告, 2005年全球数据中心的耗电量是全球用电量的0.8%。

我国信息化基础设施非常先进, 已经与发达国家同步, 特别是上网用户已经跃居全球第一。庞大的信息需求引发了海量的数据中心建设, 如中国电信、中国网通等大量建设的互联网数据中心IDC, 又如金融、税务、电力、企业等各行各业的大量数据中心建设等。

显然, 数据中心已经成为用电量增长最快的行业。庞大的数据中心数量和规模, 已经让电力工业不堪重负, 尤其在节能减排、减少二氧化碳排放的全球协议下, 数据中心的节能与降耗已经迫在眉睫, 我们需要建设绿色数据中心。

2 数据中心能效定量评价指标

为了减少数据中心能量消耗, 提高数据中心的能效, 全球IT行业的专家们定义了许多数据中心能效模型, 其中比较有影响的组织是绿色网格组织。

2007年2月, 绿色网格组织制定了数据中心的能效比指标, 分别叫PUE和DCi E。

2.1 定义

能量使用效率PUE:数据中心基础设施效率DCi E:

PUE和DCi E二者成倒数关系。

数据中心分成IT设备和基础设施两个部分, 两个部分能效的乘积才是整个数据中心的能效, 如图1所示。

IT设备部分的能效评价指标还在定义之中, 而基础设施部分的能效定义即PUE和DCi E, 如图2所示。

数据中心典型的PUE和DCi E曲线, 如图3、图4所示。

PUE和DCi E的指标可能会有个阀值, 低于这个特定的DCi E阀值, 数据中心就被称为是耗能的;高于这个特定的DCi E阀值, 数据中心就可被认为是节能的。

2.2 指标的发展与分解

DCi E定义了数据中心总能效也就是数据中心生产率 (包括IT层和基础设施层) , 如图5所示。

数据中心生产率的表达式为:

我们知道:

数据中心总能耗=制冷用电负荷+供配电能耗+IT设备能耗

所以PUE指标分解为:

CLF就代表在单位IT负载上消耗的制冷用电量, 而PLF就代表在单位IT负载上供电系统的损耗, 1.0则永远不会变, 因为这是IT负载和自己的比率。这样, 就可通过一些子指标来定量表征数据中心能效模型。

3 数据中心节能设计探讨

上述PUE模型推测清楚地列出了数据中心的能量消耗三大部分, 即:

(1) IT设备的能量消耗。

(2) 供电系统的能量损耗。

(3) 制冷系统的能量消耗。

接下来对上述三个能量消耗部分进行探讨。

3.1 IT设备的能量消耗

数据中心的IT设备包含服务器、存储器、交换机等, 其中以服务器数量最多, 占绝大多数。这些IT设备用电特性基本类似, 本文以服务器为例。

多数数据中心的服务器为机架式服务器, 部分高端数据中心采用小型机、大型机等大型服务器设备, 如图6所示。

服务器上的电源 (POWER) 和PC (个人电脑) 电源一样, 都是一种开关电源。比如联想万全2200C/2400C服务器就采用了EPS标准的电源, 该电源输出功率为300W, 输入电压宽范围为90~264V, 功率因数大于0.95。

业界某知名厂商的一款1U标准服务器电源的铭牌, 如图7所示。

服务器电源的铭牌, 一般不会直接贴在服务器的外壳上, 而是贴在服务器电源外壳比较空旷的地方, 通常都只有在从服务器中取出服务器电源后才能看到。

需要特别强调的是INPUT (输入) 中“220V”是服务器电源额定输入电压;而“4A”指的是最大输入电流能力, 表征的电源最大输入电流能力。因此, 服务器电源的输入功率 (即消耗功率) 不能直接用输入额定电压×输入最大电流来计算。

OUTPUT (输出) 中的“250W MAX”这个参数才是该服务器电源最大输出功率, 这个参数对于数据中心设计者才具有重要的设计意义, 但遗憾的是, 通常服务器厂家没有将这个参数标识在服务器外壳上, 这个参数通常只有在服务器电源铭牌上才能看到。

服务器电源的输出最大功率为250W, 按照AC/DC转换效率85% (平均值) 计算, 那么服务器的输入功率 (消耗功率) PSERVER为:PSERVER=PMAX OUT/η=250W/0.85=294.12W≈295W

其中PMAX OUT等于250W, η为AC/DC效率, 取平均值85%。

服务器的输入功率 (消耗功率) PSERVER代表服务器的最大工作功率, 即在设计满配置 (CPU、内存、硬盘等全满配置) , CPU、内存和硬盘等设备全负荷100%速度工作时, 所能消耗的最大功率, 而服务器使用过程中这种工况是非常罕见的。

在数据中心设计中, 我们可以参考配置系数c, 同时利用系数k。

PACTUAL=PSERVER×c×k=295×0.8×0.8=188.8w

其中配置系数c取0.8, 代表服务器电源的厂家裕量。k为同时利用系数, 取0.8。

上述数据符合实测结果, 在某数据中心测量Dell Poweredge 1U和2U服务器的波形, 如图8所示。左图为1U服务器222.5V*0.65A=144.63VA, 右图为2U服务器223.8*1.37=306.61VA。

以上讨论的是服务器配置一个电源的工作功率, 但是为了提高服务器工作可靠性, 目前服务器普遍采用冗余电源技术, 它具有均流、故障切换等功能, 可以有效避免电源故障对系统的影响, 实现24×7的不停顿运行。

冗余电源较为常见的是N+1冗余 (1+1、2+1、3+1等) , 可以保证一个电源发生故障的情况下系统不会瘫痪 (同时出现两个以上电源故障的概率非常小) 。冗余电源通常和热插拔技术配合, 即热插拔冗余电源, 使得可以在系统运行时拔下出现故障的电源并换上一个完好的电源, 从而大大提高了服务器系统的稳定性和可靠性。

因为冗余电源的应用, 带来新的问题:每一个服务器电源工作在较轻负荷状态之下, 导致工作效率降低, 如图9所示。比如1+1电源配置下, 每一个服务器电源的负载均小于50% (通常只有20%负载) , 这样电源模块的效率将只有80%, 甚至更低至75%。

为了提高服务器电源的工作效率, 减小服务器体积, 服务器开始向刀片式服务器升级, 如图10所示。

所谓刀片式服务器, 就是指服务器外形扁而平, 活像个刀片, 于是形象的叫做“刀片服务器”。在标准高度的机架式机箱内可插装多个卡式的服务器单元 (即刀片, 其实际上是符合工业标准的板卡, 上有处理器、内存和硬盘等, 并安装了操作系统, 因此一个刀片就是一台小型服务器) , 这一张张的刀片组合起来, 进行数据的互通和共享, 在系统软件的协调下同步工作就可以变成高可用和高密度的新型服务器。

这些刀片服务器共用系统背板、冗余电源、冗余风扇、网络端口、光驱、软驱、键盘、显示器和鼠标, 一个机箱对外就是一台服务器, 而且多个刀片机箱还可以级联, 形成更大的集群系统。

因为一个标准机架式机箱通常内置了8~14个刀片服务器, 这些服务器共用冗余电源, 所以服务器电源的工作效率得到很大提升。而刀片服务器因为体积小, 与同等速度配置的机架式服务器相比, 更加省电与节能。表1列出了某款刀片服务器与同等配置机架服务器的功率和发热量对比。

显然, 采用刀片式服务器, 在休眠状态、最大工况情况下, 功率和发热量分别降低33%和28%, 取中间值30%。

在一个中等规模的数据中心, 通常会有数千台服务器, 假定某中型数据中心有2800台服务器 (全部折算为1U的标准机架服务器) , 那么折算的用电功率为:参考配置系数c=0.8, PALL SEVER=PMAX×c×2800=377×0.8×2800=844.48k W。

如果全部采用刀片式服务器, 需要200个刀片机框+2800片刀片单元, 用电功率为:PALL BLADE=PMAX×c×2800=270×0.8×2800=604.8k W。

显然, 采用刀片式服务器, 节约电力239.68k W, 假设全年计算时间利用效率为0.7, 那么可节省的电费为:

E= (2 3 9.6 8×3 6 5×2 4×0.7) /0.9=2332885.33k Wh

Y=E×0.7元/度=163万元

其中0.7为全年同时利用率;0.9为UPS的效率;电费粗略计为0.7元/度。

可见采用新型的刀片式服务器, 节约的电费是惊人。而因为功率的节省, 还会带来机房空调的节电。

宏观上, 中国大陆每年的PC服务器总发货量在70万台左右, 按照每台服务器400W功耗计算, 一年消耗电力24亿度, 如果全部采用刀片, 可以节约7.3亿度电, 相当于少燃烧36万吨标准煤 (假定1吨煤可发电2000度电) 。

即便我们能把10%的服务器改成刀片也还能节约近4万吨标准煤, 这对当前倡导节能减排是非常有意义的。

3.2 供电系统的能量损耗

供电系统指的是在市电变压器、发电机组之后, 包括ATS自动切换开关、配电系统、UPS、供电电缆等环节。

在计算机类负载为1k W时, 为计算机类负载供电的系统 (包括ATS自动切换开关、低压配电开关、UPS供电系统、供电电缆等) 在输出功率1k W条件下, 供电系统的损耗即为PUE供电因子, 计算的数学模型为:

供电因子Power Load Factor=ATS开关损耗+低压配电系统损耗+UPS系统损耗+供电电缆损耗

其中ATS开关损耗、低压配电系统损耗、供电电缆损耗很小, 基本上是铜损与接触电阻损耗, 统计数据表明为1%~3%左右, 取中间值2%, 即为0.02。

供电因子Power Load Factor=0.02+UPS系统损耗。

而在数据中心设计与运营中, UPS系统的损耗随着UPS供电方案不同而变化。

根据TIA 942标准与新《电子信息机房设计规范》 (GB50174-2008) , 数据中心UPS实际供电方案或为N+1供电系统, 或为2N与2 (N+1) 供电系统, 如图11及图12所示。

大中型数据中心中, 最常见的供电系统为2N、2 (N+1) , 他们在不同配置方式下负载比率不同, 效率略有差异。本文以负载图12数据中心常见供电系统图 (2N) 或2 (N+1) 率较低的单机双母线组成2N供电系统为例, 研究正常工作下UPS的效率与损耗, 如图13所示。

假设某数据中心服务器等计算机类负载为100k W。

如果配置两台UPS组成单机双母线解决方案, UPS容量可按两种方法选择:

(1) 经济型, 选用160k Va/144k W, 输出功率因数为0.9。

(2) 扩容型, 选用200k Va/180k W, 输出功率因数为0.9。

3.2.1 经济型方案UPS效率与供电因子

计算机类负载为100k W, 正常工作时双母线上每台UPS平分负载, 即每台UPS承担负载为50k W, 单台UPS的负载率为:K=50/144=34%。

艾默生Hipulse U 160k VA/144k W UPS效率表, 如表2所示。

将负载率34%放入25%~50%区间, 进行数学插值法计算, 得出损耗率为:Η=8.77%, 即0.0877

则供电系统总损耗为:供电因子Power Load Factor=0.02+UPS系统损耗=0.02+0.0877=0.108

3.2.2 扩容型方案UPS效率与供电因子

扩容型方案中, UPS容量较大, 为200k Va/180k W。计算机类负载为100k W, 两条母线上每台UPS平分负载, 即每台UPS承担负载为50k W, 单台UPS的负载率为:K=50/180=27%

艾默生Hipulse U 200k VA/180k W UPS效率表, 如表3所示。 (注, 表中数据为电池浮充电状态)

负载率27%约等于25%, 得出损耗率为:Η=9.37%, 即0.0937。

则供电系统总损耗为:供电因子Power Load Factor=0.02+UPS系统损耗=0.02+0.0937=0.114。

上述两种UPS供电方案下, PUE指标中的供电因子Power Load Factor, 从0.108变化到0.114, 变动不大, 说明UPS供电系统是对PUE影响较小的因素。有几点需要强调的是:

(1) 采用两台UPS主机组成的单机双母线的2N供电系统, 是负载率较小的配置, 所以所得到PUE供电因子是较大的。

(2) 如果采用2 (N+1) 方式, 在配置合理情况下, PUE的供电因子将小于上述计算模型数值。

(3) 当配置了带输出隔离变压器的配电柜或者分配柜时, 供电回路上每增加一个变压器, 供电因子将增加0.03~0.05。

(4) 如果为每个UPS输出母线上安装大容量的STS, 将导致供电因子增加0.01~0.02。

(5) 此计算模型不含市电入户变换器的效率, 即功率与损耗计量从低压侧计算, 不含35k V/0.4k V或10k V/0.4k V的转换损耗。

4 空调系统的PUE值计算

数据中心机房环境对服务器等IT设备正常稳定运行起着决定性作用。数据中心机房建设的国家标准《电子信息机房设计规范》 (GB50174-2008) 对机房开机时的环境的要求, 如表4所示。

为使数据中心能达到上述要求, 应采用机房专用空调 (普通民用空调、商用空调与机房专用空调的差异对比不在本文讨论范围) 。如果数据中心机房环境不能满足以上要求会对服务器等IT设备造成以下影响:

◆温度无法保持恒定——造成电子元器件的寿命降低;

◆局部温度过热——设备突然关机;

◆湿度过高——产生冷凝水, 造成短路;

◆湿度过低——产生有破坏性的静电;

◆洁净度不够——机组内部件过热, 造成腐蚀。

4.1 数据中心热负荷及其计算方法

数据中心机房主要热量的来源, 分为:

◆设备热负荷 (计算机等IT设备热负荷) ;

◆机房照明热负荷;

◆建筑维护结构热负荷;

◆补充的新风热负荷;

◆人员的散热负荷等。

(1) 机房热负荷计算方法一:各系统累加法

(1) 设备热负荷

Q1:计算机设备热负荷

P:机房内各种设备总功耗 (k W)

η1:同时使用系数

η2:利用系数

η3:负荷工作均匀系数

通常, η1、η2、η3取0.6~0.8之间, 考虑制冷量的冗余, 通常η1×η2×η3取值为0.8。

(2) 机房照明热负荷

C:根据国家标准《计算站场地技术要求》要求, 机房照度应大于2001x, 其功耗大约为20W/m2。以后的计算中, 照明功耗将以20W/m2为依据计算。

S:机房面积

(3) 建筑维护结构热负荷

Q3=K×S/1000 (k W)

K:建筑维护结构热负荷系数 (50W/m2机房面积)

S:机房面积

(4) 人员的散热负荷:

Q4=P×N/1000 (k W)

N:机房常有人员数量

P:人体发热量, 轻体力工作人员热负荷显热与潜热之和, 在室温为21℃和24℃时均为130W/人。

(5) 新风热负荷计算较为复杂, 我们以空调本身的设备余量来平衡, 不另外计算

以上五种热源组成了机房的总热负荷, 即机房热负荷Qt=Q1+Q2+Q3+Q4。由于上述 (3) (4) (5) 计算复杂, 通常是采用工程查表予以确定。但是因为数据中心的规划与设计阶段, 难以确定, 所以实际在数据中心中通常采用设计估算与事后调整法。

(2) 机房热负荷计算方法二:设计估算与事后调整法

数据中心机房主要的热负荷来源于设备的发热量及维护结构的热负荷。

因此, 要了解主设备的数量及用电情况以确定机房专用空调的容量及配置。根据以往经验, 除主要的设备热负荷之外的其他负荷, 如机房照明负荷、建筑维护结构负荷、补充的新风负荷、人员的散热负荷等, 如不具备精确计算的条件, 也可根据机房设备功耗及机房面积, 按经验进行测算。

采用“功率及面积法”计算机房热负荷:

Qt=Q1+Q2

其中, Qt总制冷量 (k W)

Q1室内设备负荷 (=设备功率×1.0)

Q2环境热负荷 (=0.12~0.18k W/m2×机房面积) , 南方地区可选0.18, 而北方地区通常选择0.12

方法二是对复杂科学计算的工程简化计算方法。这种计算方法下, 通常容易出现计算热量大于实际热量的情况, 因为机房专用空调自动控制温度并决定运行时间, 所以多余的配置可以作为冗余配置, 对机房专用空调的效率与耗电量影响不大。本文以方法二推导数据中心机房专用空调配置与能效计算。

4.2 数据中心机房专用空调配置

设定数据中心的IT类设备为100k W, 并且固定不变。根据上述方法二, 还需要确定机房的面积。

再假定数据中心的热负荷密度为平均热负荷密度, 即4k W/机柜。也就是说平均每个机柜为4k W的热负荷。

数据中心的机柜数量为:100k W/4k W=25台机柜。

按国家标准《电子信息机房设计规范》 (GB50174-2008) 有关机柜占地面积计算方法, 取每个机柜的占地面积为中间值4m2/台, 那么数据中心的面积为:25台机柜×4m2/台=100m2。

如环境热负荷系数取0.15k W/m2, 则数据中心机房总热负荷为:Qt=Q1+Q2=100k W+100×0.15=115k W。

数据中心送风方式选择:按国家标准要求, 采用地板下送风, 机柜按冷热通道布置。

机房专用空调选择:机房空调通常分为直接制冷与非直接制冷 (包括各类水制冷系统等) , 先讨论直接制冷系统的机房空调。不同厂家有不同型号的机房专用空调, 以艾默生网络能源有限公司生产的Pex系列机房空调为例, 应配置的机房空调为:两台P2060机房空调, 在24℃相对湿度50%工况下, 每台制冷量为60.6k W, 两台空调的总制冷量为121.2k W, 略大于115k W的计算热负荷。

根据国家标准《电子信息机房设计规范》 (GB50174-2008) 的数据中心空调配置建议, 数据中心通常建议采用N+M (M=1, 2, ......) 配置形式, 以保障工作可靠性与安全性。

假设本数据中心采用N+1方式配置, 即采用2+1方式配置三台P2060机房空调, 实现两用一备工作。

4.3 数据中心机房专用空调耗电量与能效计算

机房空调耗电器件有:

◆压缩机, 也是主要的耗电器件;

◆室内风机;

◆室外风机;

◆室内加湿器;

◆再热器, 用于过冷状态下加热;

◆控制与显示部件等, 耗电量较少, 可忽略不计。

(1) 压缩机、室内风机、室外风机的耗电计算

压缩机、蒸发器、膨胀阀、冷凝器组成一个完整的冷热循环系统, 如图14所示, 其中耗电部分是压缩机、室内风机、室外风机等三个部件。

详细计算不同工况下的三个部件的耗电量是困难的, 但是在最大制冷量输出下, 空调行业有个标准的参数, 即能效比。

能效比即一台空调用一千瓦的电能产生多少千瓦的制冷/热量, 分为制冷能效比EER和制热能效比COP。例如, 一台空调的制冷量是4800W, 制冷功率是1860W, 制冷能效比 (EER) 是:4800/1860≈2.6;制热量5500W, 制热功率是1800W, 制热能效比COP (辅助加热不开) 是:5500/1800≈3.1。

显然, 能效比越大, 空调效率就越高, 空调也就越省电。目前, 我国市场上民用空调平均能效比较低, 仅为2.6。美国现行的空调能效标准规定输出功率介于2300W到4100W, 即小1匹到1.5匹的空调, 能效比达2.8即为合格品;能效比达3.2即达到能源之星标准;而能效比低于2.8, 不准在美国市场销售。欧洲的能效标准将空调能效水平分为A、B、C、D、E、F、G共7个级别。其中A级最高, 能效比为3.2以上;D级居中, 介于2.8~2.6之间;E级以下属于低能效空调。目前我国绝大多数空调处于欧洲E级水平。而在日本国内的空调器的能效比现在一般都在4.0~5.0左右。

机房专用空调因为采用专用压缩机, 所以能效比都在3.3~3.5之间。本例中最大负荷制冷功率为115k W, 则三台艾默生P2060空调为两用一备, 其中备份机在先进的i Com控制模块控制下, 只有控制电源工作, 能耗很少, 忽略不计。

2台P2060空调, 总制冷功率为121.2k W, 取能效比中间值3.4计算, 则四部件电功率为:

P四部件=P制冷/cos=121.2k W/3.4=35.64k W。

(2) 室内加湿器功率

数据中心机房的环境、建筑条件、密封状态等不同, 导致加湿功率不同。

艾默生Pex系列采用远红外加湿器, 如图15所示, 结构简洁, 易于拆卸、清洗和维护。悬挂在不锈钢加湿水盘上的高强度石英灯管发射出红外光和远红外光, 在5~6秒内, 使水盘中的水分子吸收辐射能以摆脱水的表面张力, 在纯净状态下蒸发, 不含任何杂质。远红外加湿器的应用减少了系统对水质的依赖性, 其自动冲洗功能, 使水盘更清洁。

假设一台P2060空调的加湿器即可满足最大负荷下的加湿量, 查相关产品手册远红外加湿器功率为9.6k W。

P加湿=9.6k W

(3) 再热器、控制部件耗电量

再热器的作用是当空调过冷时为实现数据中心机房温度稳定, 进行电功率加热。实际运行中, 因为艾默生Pex机房空调采用先进的i Com控制器, 彻底解决了空调的竞争运行, 比如一台空调制冷而另外一台空调加热的竞争运行的工况。

仅仅在控制器故障下, 再热器才会工作。因为这是非正常工况, 所以再热器的电功率不计入能效模型。

控制部件的耗电量很少, 忽略不计。

空调系统总的电功率消耗与能效指标为:

功率:P空调=P四部件+P加湿=35.64 k W+9.6 k W=45.24k W

能效指标:PUE空调因子=45.24/100=0.452

至此, 数据中心的PUE为:

PUE=1+PUE供电因子+PUE空调因子=1+0.108~0.114+0.452=1.560~1.566。

显然, 一个设计与运营良好的数据中心, 在空调系统配置正确, 不考虑照明、新风机等设备的情况下, 能效比应该小于1.6。

而实际运行的数据中心, 能效比动辄大于2.5, 非常耗能、非常浪费, 究其原因还是用户不太关注数据中心能效指标。

5 数据中心能效指标PUE的进一步研究工作

上述的模型能够清晰定义数据中心的主要耗电环节, 为机房节能设计与运营提供了可行的数学模型。

显然, 数据中心节能的重点在于空调部分的能效指标, 即PUE空调因子。机房空调的能效指标又与机房的热密度、风道布置、冷热通道、机房建筑热负荷、室外机布置、室内机布置等诸多因素相关, 这是本文作者下一步研究工作需要探讨的。

此外, 有关水制冷系统与直接风冷系统DX的争论, 也将具体讨论。

空调提供的制冷剂机外循环也是最新的技术, 如果能成功产业化, 可将PUE空调因子降低到0.2左右 (一年内平均) 。

最后, PUE无论怎样变化, 都是大于1的乘数因子。要做到最佳节能, 降低服务器等IT设备的功耗, 才最立竿见影。比如之前的总耗电量为1.6, 当服务器设备功耗降低为0.8的时候, 数据中心总功耗立即降低为0.8×1.6=1.28。IT设备降低了0.2, 而耗电量降低了0.32。这就是乘数因子效应。

摘要:PUE和DCiE可以实现对数据中心能效的定量管理。

关键词:绿色数据中心,数据中心定量评价指标,节能设计与建设

参考文献

[1]Green Grid.《The Green Grid Data Center Power Efficiency Metrics:PUE and DCiE》

[2]艾默生网络能源白皮书.《能效逻辑》

[3]曹播.《能效逻辑和数据中心定量评价指标》

绿色节能智慧数据中心解决方案 篇6

数据中心作为各行业信息化的重要载体, 提供着信息数据存储和信息系统运行平台支撑, 是现代社会所必须的信息化发展的关键资源。根据统计, 数据中心整体输入功率的40%是被数据中心内的制冷设备所消耗, 同时, 随着虚拟化技术、刀片服务器在数据中心内的广泛应用, 数据中心内的单位面积散热量越来越大 (现代部分云计算数据中心, 单机架功耗已达到10kw左右) , 而在服务器发热密度非常高的同时, 服务器内部也会出现局部热点问题。传统的数据中心设计方案已经很难满足这种高热密度散热的需求, 而日益增长的能源成本和有限的电力资源推动着机房运营商必须采用具有更高能效的解决方案。

2 常规数据中心解决方案

2.1 常规数据中心机房设备布局

在常规数据中心, 机房空调与IT服务器设备的布局如图1所示, 冷却气流从机房空调机组下部送出后, 经过架空地板下送风空间, 再通过冷通道开孔地板, 然后流入IT服务器设备的入口, 在冷却服务器设备后流出, 回到机房空调机组, 完成气流的循环。

对常规数据中心进行CFD热仿真, 其内部温度分布如图2所示。可以看到, 机房内温度分布很不均匀, 存在较多温度较高的区域 (即机房热点) , 最高温度可达到30℃, 在机房空调近端冷却效果较好, 远端的冷却效果则较差。

这种传统的布局方式为防止机房热点的出现, 满足近端和远端服务器达到设定的运行温度需求, 需要加大制冷设备的数量以及能力配置。在运行过程中为满足远端服务器的需求, 制冷设备需要长期处于满负荷运行的状态, 需要消耗大量电力资源, 造成了能源的浪费。

2.2 常规数据中心制冷系统

常规数据中心机房制冷系统多采用房间级的定频机房空调。定频机房空调以启停的方式来控制室内温度。当室内有制冷需求时, 开启空调对机房进行降温;当室内无制冷需求时, 关闭空调。它具有以下缺点:

1) 启动电流大, 对机房电网容易造成冲击。

2) 空调启停控制导致了机房的温湿度波动范围很大, 温度波动范围通常为:±2℃, 湿度波动范围通常为:±10%。并有可能影响机房服务器的正常运行。

3) 全年能效比AEER通常为3.6~4.0, 能效比较低, 节能效果差。

4) 电源适用性较差, 频率允许波动范围±3Hz。

5) 主流产品以R22为制冷剂, 不符合绿色环保的政策。根据《蒙特利尔议定书》, 在2030年发展中国家将禁止使用此种制冷剂。

2.3 常规数据中心监控管理

常规数据中心空调采用单色LCD字符显示, 并采用按键方式进行控制 (图3、图4) 。传统的单色人机交互界面方案存在以下问题:

1) 空调控制器操作界面以单色字符显示, 并且大部分为文字, 难以通过图形对需要显示的信息进行图形化显示;

2) 显示界面通常较小, 在同一页中显示的内容十分有限;

3) 空调控制器采用按键方式进行控制, 操作繁琐, 学习上手时间长;

4) 不具备网络功能, 无法使用手机等便携式终端设备进行监控。

3 绿色节能智慧数据中心解决方案

针对传统数据中心存在的种种弊端, 四川依米康环境科技股份有限公司提出了绿色节能智慧数据中心解决方案。绿色节能智慧数据中心解决方案由3部分构成: (1) 微模块单元式机房布局; (2) 节能型直流变频列间空调制冷系统; (3) SPAX智能网络管理系统。

3.1 绿色节能智慧数据中心机房设备布局

依米康公司提出绿色节能智慧数据中心机房设备布局方案——Micro Module (微模块) :整个数据中心可拆分为多个模块, 每个模块以若干机架为基本单位, 包含制冷模块、供配电模块、高压直流以及网络、布线、监控、消防在内的独立的运行单位。微模块全部组件可在工厂定制, 可灵活拆卸, 快速组装。设备分两列放置, 进行热通道封闭或冷通道封闭。微模块布置如图5所示。

微模块采用冷/热通道封闭, 隔离了机房内的热气流和冷气流, 杜绝冷热气流相互干扰。通过图6可以看到, 列间空调制冷模块与IT服务器设备之间呈现一种紧密配合的状态, 在数据中心内部形成封闭的冷池, 冷却气流从列间空调以水平方向直接送入冷池, 然后流入IT服务器设备的入口, 在冷却服务器设备后流出, 从水平方向回到列间空调, 完成气流的循环。

3.1.1 冷通道封闭的微模块气流仿真

对绿色节能智慧数据中心进行CFD热仿真, 其内部温度分布如图7所示, 可以看到, 与常规数据中心相比, 数据中心内部温度分布均匀程度大大提高, 没有冷热不均的现象, 也不存在机房热点, 最高温度仅稍高于24℃, 冷却效果非常理想。

从根本上来说, 绿色节能智慧数据中心的冷却模式是服冷配合的模式 (即IT服务器与机房空调之间呈现紧密配合的状态) , 这是一种机柜级的冷却方式, 空调的冷量直接作用于服务器设备, 冷量得到充分利用, 冷却效率较高;而常规数据中心的冷却模式是服冷分立模式 (即IT服务器与机房空调之间呈现松散状态) , 是一种机房级冷却方式, 空调冷量的作用路径很长, 导致冷量分布不均, 不能得到充分利用, 因而冷却效率较低。CFD热仿真和数据中心现场的实际状态, 均显示了这样的对比结果。

3.1.2 冷通道封闭的微模块节能分析

以200㎡的机房为例, 房间负荷约120k W, 通过MATLAB进行数据建模, 结合CFD进行整个气流组织的模拟, 分别对常规数据中心和冷热通道微模块布局在能源利用率和PUE值进行对比分析, 结果见表1、表2。

从上述数据可以看出在采用冷热通道微模块布局后, 大幅度提高了能源的利用率, 全年可节约能耗55 766k W·h, 占整个机房能耗的13%。数据中心的PUE值降低至1.52, 说明微模块布局对能源的利用率大大提高。

3.2 绿色节能智慧数据中心制冷系统

绿色节能智慧数据中心制冷系统采用依米康公司开发的SCA.IBE系列行级制冷的直流变频列间空调。SCA.IBE系列直流变频列间空调与服务器机柜形成冷通道后可实现对服务器机柜的定点冷却, 制冷空间小、冷量流失少、温度控制迅速、温度控制精度高。

当微模块有制冷需求时, 直流变频列间空调开启;当微模块制冷需求变大时, 直流变频列间空调通过模糊控制增大EC风机转速和EC压缩机转速, 加大冷量输出;当微模块制冷需求变小时, 直流变频列间空调通过模糊控制减小EC风机转速和EC压缩机转速, 减小冷量输出。当微模块无制冷需求时, 直流变频列间空调关闭, EC风机保持最低转速运行。

SCAL.IBE系列直流变频列间空调与传统定频机房空调相比具有以下优点:

1) 空调启动电流小, 对电网冲击很小。

2) 通过调节EC风机转速和EC压缩机转速来适应室内温湿度的变化, 微模块内部的温湿度波动范围很小, 温度波动范围通常为:±1℃, 湿度波动范围通常为:±5%。

3) 全年能效比高达4.4~4.8。

4) 由于提高了回风温度, 机组运行时蒸发温度高, 显热比达1.0。

5) 机房空调的电源适用性强, 频率波动对其运行无影响。

6) 以R410A为制冷剂, 符合绿色环保的国家政策。R410A破坏臭氧层潜能值 (ODP) 为0, 不会对臭氧层造成破坏。

7) 控制器为触摸屏显示器, 人机界面友好。

3.2.1 直流变频列间空调与定频列间空调能耗对比分析

1) 空调型号

SCA401IBEY6定频列间空调压缩机型号Danfoss SH140——ARI工况下制冷量38.1k W

SCAL401IBEY6变频列间空调压缩机型号Danfoss VZH088——ARI工况下70Hz运行时制冷量38.1k W

2) 试验条件

(1) 模拟机组在机房中的年运行状态;

(2) 两台机组在相同的制冷需求、气候、温湿度设定参数下运行;

(3) 除压缩机外, 其他制冷部件一致;

(4) 气候条件设定为北京全年气候;

(5) 假设机房全年制冷需求在6.6~35.0k W之间变化, 平均制冷需求为16.2k W。制冷需求占比如图8所示。

通过计算, 年能耗结果见表3。

数据中心长期运行成本如图9所示。

从上述数据可以看出, 采用直流变频列间空调全年能耗节约率达到了29.0%, 节能效果显著。

3.3 SPAX智能网络管理系统

SPAX智能网络管理系统是依米康环境科技股份有限公司针对精密机房空调专业定制的集成管理系统, 包含了群组内部自组织管理网络, 机房本地监控接口以及远程云端监控客户端, 可通过多种维度随时掌握空调设备信息以及运行状态。

3.3.1 功能强大的人机控制

1) 空调人机界面采用大屏幕高分辨率真彩触摸屏, 画面清晰逼真, 海量存储数据, USB2.0高速升级更新支持。

2) 强大的数据管理功能, 支持操作日志、历史数据、告警日志、告警配置等。

3) 支持U盘导出历史数据与参数列表导入。多语言 (中文, 英文, 法文, 日文, 西班牙文, 俄文, 德语) 在线切换。

4) 控制器界面、状态信息采用扁平化设计, 界面美观大方。在主页面中重要信息一目了然, 用户在主界面即能知晓当前温湿度状态、运行模式 (制冷/制热/加湿/除湿) 以及告警信息。控制器界面见图10。

5) 空调系统采用了全新的群控方案, 支持轮值备用、同向自主、平均分配、按需分配4种针对不同应用场景的群控模式, 完全覆盖数据中心联机控制需求场景。

6) 智能控制系统能够方便地组成群控网络, 提供合理的空调轮值运行、热备份管理、避免竞争运行、冷量动态分配以及主控系统备份功能, 并且在群控模式下, 用户可从主机或从机的群控状态页面中获取当前群组内所有机组的运行状态 (包括群控网络中每台机组的运行模式, 主备、在线、故障状态) , 如图11所示。

3.3.2 全面覆盖的监控系统

1) 连通性:控制系统能够兼容最通用的楼宇管理系统:Modbus, DLL等通过局域监控网络、因特网或者简单的浏览器界面即可远程管理机组。授权的用户能够随时确认机组的运行状态及报警信息, 并通过手机短信接收机组信息, 能够通过简单的界面对机组进行快速诊断。运行方式见图12。

2) 协同性:控制系统能够方便地通过OPC Server与楼宇智能系统对接, 形成集成性的解决方案。用户可通过大型智能楼宇管理平台优化机组的管理及提高整体制冷性能, 并实现节能的目的。

3) 安全性:系统通过RS485局域控制网络能够无风险地传输信息和进行数据交换, 并且可以为维护人员或监控网络配置不同的访问权限, 禁止或允许互联网的设置或关机操作。

3.3.3 互联网+的创新性应用

在保留对传统modbus工业级监控组网兼容的环境下, 增加了WEB以及手机APP监控的方式 (见图13、图14) 。控制系统可通过以下方式连接到网络。

1) 通过控制系统自身的通信卡可以直接选择BMS所使用的楼宇协议 (如MODBUS等) 。

2) 使用网关, 将专用协议转换为BMS所用的协议 (如TCP/IP, HTTP, ProfiBus等) 。

3) 将专用协议驱动程序集成至用户的BMS软件中。

4 结语

依米康环境科技股份有限公司的绿色节能智慧数据中心解决方案, 在整体的机房布局上采用了微模块冷热通道封闭技术, 提高了能源的利用率, 减少了无效的冷量损失。在制冷系统上采用国际领先的直流变频列间冷却技术, 根据使用需求减少了能量的投入, 从而大幅度提升了全年的能效系数。SPAX智能网络管理系统, 在人机界面以及更重要的人机互联上有了突破性的创新。

随着信息产业的迅猛发展, 节能减排国策的实施, 人们节能环保意识的不断加强, 依米康绿色节能智慧中心解决方案将在IDC领域发挥其巨大的商业价值和社会效益。

参考文献

[1]朱利伟.浅谈微模块技术及实现[J].智能建筑与城市信息, 2013 (11) :33-35.

绿色数据中心节能分析 篇7

随着信息化的飞速发展,数据中心作为网络的核心节点,强有力的支撑着网络的运行,数据中心建设的关注度也大幅提升。数据中心在建设过程中所遇到的电能消耗、绿色环保等问题渐渐被IT经理及方案提供商所关注。对网络需求的快速发展,使得许多投资方不惜重金搭建更为先进的数据中心。综合布线系统,作为网络基础物理平台,是数据中心建设的重点之一,直接关系到数据中心的稳定性。在TIA 942标准的指引下,全球数据中心布线系统以结构化、高密度、高带宽、易拓展、绿色化等为核心理念,发展为整个数据中心布线行业的方向。

综合布线系统仅仅是一个无源系统,它给网络设备提供一个无源平台,是网络的底层和基础。综合布线相对网络应用具有透明性,即布线系统与不同网络的操作系统和上层的网络设备都提供同样的支持。各种网络设备是架设在布线系统上的一个有源平台,如果基础平台上的绿色环保没有保障,则在此以上的有源平台功耗会成倍的增加。绿色布线系统一次性投入后,一般会持续运营十五年以上,布线系统的寿命与稳定也直接关系到数据中心的运行维护情况。

“绿色”已成为当今数据中心建设的时代主题,依据罗森伯格HDCS在数据中心综合布线实施研发中十五年以上的经验,“绿色”主要包含“绿色环保”和“绿色节能”两大重要组成部分。随着全球能源及碳排放问题的关注度日益加大,绿色数据中心布线是数据中心发展到一定阶段的必然需求。

2 数据中心的绿色环保

探讨数据中心的绿色布线首先要考虑综合布线方案中所选择产品的材质是否环保。评判是否环保有很多可以参考的依据,国内外均有相关的政策支持与认证标准。2008年的北京奥运村、2010年的上海世博会都宣布了将全部使用环保型产品的相关政策规定,在将来通信行业绿色环保型产品也将有所偏重,数据中心作为网络的核心节点选材的绿色环保尤其重要。

RoHS 2002/95/EC标准规定在电子和电气产品中严禁使用六种有害物质,欧盟颁布RoHS指令时间要求:于2006年7月1日起,禁止在市场销售含有铅、汞、六价铬、多溴化联苯和多溴化二苯醚。RoHS作为重要的参考标准是限制使用有害物质的标准规范。数据中心建设中应优先选取符合RoHS标准的产品,否则这些材料的产品对环境产生危害,留下重污染废弃物,因此在数据中心布线产品选型中严禁使用包含有害物质超标的产品将大大降低对环境的危害。

当前很多企业,都严格按照RoHS标准来生产,致力于环境的保护和绿色环保产品的可持续性发展,随着符合RoHS标准产品的推出,在生产和使用过程中产生的废弃物也尽可能的循环再使用和重新利用。许多核心企业价值观中,社会责任感是很重要的一条,把环境和资源保护看作产品解决方案的附加值。

数据中心在高密度的同时,尽可能的选用预端接光缆产品,减少了75%的施工安装时间,如图1所示。预端接光缆产品相当于普通光缆+光纤熔接+光纤尾纤+光纤测试+返工+便捷安装+高性能+免维护。采用预端接光缆相对于传统现场熔纤,不仅仅提高了品质与性能,并且减少了产品现场安装所产生废弃的耗材,使整体实施过程更加环保高效。

依据国内外的各类规范,数据中心在选取线缆时应考虑阻燃、低烟、无烟气毒性和无腐蚀性,在起火时兼顾人员和设备的损失。全球各地的防火标准各不相同,北美UL标准,按线缆阴燃在起火时优先强调如何减少火焰扩张,火势蔓延和烟雾产生。北美UL标准按阻燃等级从高到低分为:阻燃CMP、非助燃干线级CMR、非助燃商用级CM、非助燃通用级CMG和一般家居级CMX;而欧洲各国在布线领域则力推屏敝和低烟无卤,注重信息安全和人员安全。欧洲低烟无卤包含三个标准:IEC 60332-3或IEC 60332-1(火焰扩张和阴燃)、IEC 61034(烟雾发散)、IEC 754(腐蚀性和毒性);低烟无卤特点是不仅具有优良的阻燃性能,而且构成低烟无卤电缆的材料不含卤素,燃烧时的腐蚀性和毒性较低,产生极少量的烟雾,从而减少对人体、仪器及设备的损害,有利于发生火灾时及时救援。因此在数据中心中低烟无卤线缆的选取也是绿色环保重点之一。

3 数据中心的绿色节能

在数据中心布线过程中,一旦综合布线安装完成,就应做好保护工作并且不再对其进行操作。之后的任何网络配置改变,都应通过移动MDA水平交叉连接上的光铜跳线来完成。这样,MDA区域就成了物理层管理所关注的对象,在设计MDA区域时,应注意其长期的管理性、可靠性、安全性和扩展性。

数据中心能源消耗巨大,并呈不断加大的势头,占全球碳排放的比例不断上升,提升数据中心能效刻不容缓。“绿色电网”是一个非盈利性IT人员组织,它推出了两个知名的衡量能效标准,分别是PUE和DCiE (PUE的倒数)。PUE是衡定数据中心节能的重要指标,可以从根本上让用户知道总体消耗的电力以及用于实际计算的电力。PUE是一个比值,其基准值为2,越接近1表明能效水平越高,在目前的技术水平和设备条件下,还无法在数据中心系统上让PUE达到1的水平。整个数据中心的能源消耗包括供应到冷却设备、冷却器、照明、存储节点以及服务器,工作站以及网关等设备的耗电,如图2所示。

数据中心综合布线采用结构化、高密度、合理的线缆路由管理减少对冷热通道的阻碍,光铜产品的选取大幅提升网络带宽,这些措施能为节能降耗做出相应的贡献,从而提升数据中心的能效比。

根据在众多构建绿色数据中心的经验分析,综合布线的合理规划和布局会节省数据中心2%~3%的电力。这主要取决于如下几点:

(1)合理规划数据中心

合理有效的线缆布局决定了网络物理层的基础,对于节约电能、节能降耗起到重要作用。要据TIA 942标准,如图3所示,将数据中心划分成MDA、HDA、EDA、ZDA等几大区域。从MDA到HDA采用OM3预连接光缆,从而优化主配线区到列头柜之间的连接。解决从主交换路由到每一列机柜的列头柜二层交换机的连接。每列列头柜交换机及KVM设备通过铜缆或光缆跳线再连接到每一个服务器上去。它的优点是节省从主交换机到用户服务器线缆的数量,从而减少对机房冷热通道的阻隔。

目前,大多数数据中心内整体设计所支持的数据传输速率为1Gbps。但是,根据网络和云计算的发展普遍共识是,传输速率会向10Gbps推进。可以肯定的是,在未来的3~5年的时间里,支持10Gbps传输的链路会成为数据中心的主流。基于此种情况,ISO以及TIA制定了关于光纤和铜缆支持10GB以太网传输的标准。数据中心的规划建设应充分考虑到适用性,立足现有需求,并兼顾未来的拓展。

(2)高密度、高带宽提升数据中心基础设施利用率

在相同的数据中心面积基础上,通过提高数据中心密度来达到有效的利用,在网络物理连接层面主要体现在高密度线缆管理方面。

角形配线架无需增加理线设备;高密度光纤配线架可大幅提升光纤配线密度;桥架式光铜混合配线架使用于机柜上方可支持288芯光纤,减少柜内空间占用;MPO连接器是一种多芯的光纤连接器,像IEC 61754-7、TIA/EIA 568C.3等标准中都有MPO连接器的规定。MPO最近几年也广泛应用于数据中心。数据中心采用MPO的好处在于密度特别高,至少是普通LC连接器的3倍以上。以上这些新产品技术的应用,可以有效的节约40%以上的机柜空间,提升数据中心密度。合理的数据中心布局,对于光铜缆路由的合理设计,可大量节省线缆投入。

(3)优质的产品选型,精准的制造工艺

布线系统的绿色节能还体现在散热性上,线缆的散热性越好,可以节约大量的机房空调所消耗的电量。直径更小的Cat.6A万兆屏蔽电缆和直径更小的光纤解决方案意味着对制冷系统效率的影响降到最低,屏蔽解决方案因为更低的信噪比需求可以有效地减少服务器设备驱动屏蔽铜缆网络所需的功率消耗,光纤布线系统相对高速铜缆系统需要消耗的功率更低。

绿色数据中心布线系统较之有源的网络设备,将持续工作15年,甚至更久。优质的产品,精准的制造工艺是延长综合布线系统寿命及稳定的重要保证。延长整体系统的使用寿命,也是减少重复投资,绿色节能的重要体现。

(4)高性能、高传输,精益求精,精细化管理与实施

根据摩尔定律所确定的计算机设备热负荷规律,数据中心的配置无法实现有效的管理。数据中心环境需要考虑所安装的解决方案及如何安装和部署这些解决方案。在最近10年中,各公司的数据中心和楼宇配线设施中都大量地增加了网络设备数目,这些设备在增加关键性功能的同时,却使得数据中心的管理变得复杂。在全球发展放缓经济环境中,投资方都在期望简化自己数据中心管理,以创建一个安全、易于管理且能够根据不可预知的工作负荷和业务需求的变化,灵活调整网络基础架构。采用良好的布线系统管理软件有利于系统的可维护性,保持布线系统最大的效率,而不会因为布线管理混乱而产生不必要的能源消耗。

4 结束语

绿色数据中心节能分析 篇8

绿色数据中心是指数据机房中的IT系统、制冷、安防、监控、照明和电气等均能取得最大化的能源效率和最小化的环境影响的中心。

绿色数据中心是未来发展的趋势, 中国电建总部数据中心的规模属于中型数据中心, 能耗是数据中心的重要运行成本, 它的节能意义也比普通的用电单位大。

中国电建总部数据中心已投入运行近10年, 建设之初按照2005年时的国标设计, 但随着数据中心的快速发展, 绿色节能技术突飞猛进, 当时的数据机房显示出它的一些弊端, 比如:地板下部空间只有30cm, 而且强电下走线, 阻碍空调送风;机柜没有按照冷热通道布局方式等。从而造成了数据中心机房能耗过高、运行效率及设备运行的安全稳定性过低等问题。因此, 数据中心机房改造势在必行, 降低能耗, 节省成本, 成为建设绿色数据中心的核心目标。中国电建总部数据中心改造建设全面考虑绿色数据中心的各方面因素, 包括位置、环境、物理建筑、基础设施、各系统建设和维护等进行升级与节能改造, 建成节能、环保、高效的绿色数据中心。

2 整体工艺布局的节能优化

中国电建总部原数据机房的机柜均为统一朝向摆放, 均为机柜正面朝前, 没有设置冷热通道, 空调为下送风、上回风方式, 各机柜组间没有合理的通风空间, 冷热空气混合问题严重, 不利于设备散热。因此数据机房改造中对机柜布局方向进行的调整, 采用机柜面对面、背对背的摆放方式, 形成冷热通道;机柜正面为冷通道, 并设置风口地板, 冷空气从机房正面进入, 设备吸收热量后, 由机柜背面上方自然回风进入空调, 空调形成下送风、上回风的循环送风方式, 使其具备良好的使用和散热效果。

3 封闭热 (冷) 通道的节能优化

封闭热 (冷) 通道可以有效使地板下送出的冷量全部用于设备散热, 能大幅度减少或避免风量和冷量的损耗, 从而最终大幅度提高制冷的效率。从整个机房的气流组织来看, 对热通道的封闭可以有效地避免传统机房中冷热空气混合, 冷空气短路, 而最终产生的局部热点问题。

通过封闭热通道能够解决核心机房局部过热、空调能耗高、装机空间利用率低等问题。较传统空调制冷方式, 空调能耗下降20%〜30%, 机房空间利用率由原来的50%提升到90%, 设备运行环境得到了大大的改善。

封闭热通道增加铝合金扣板吊顶, 并且在机房热通道上方天花采用回风百叶形式, 确保更好的回风。空调与吊顶之间安装回风帽, 使楼板与吊顶板之间形成负压热空气回风层, 加强空调回风效率, 降低制冷能耗。

封闭热通道的优势还在于万一数据机房断电, 精密空调停机后整个机房温度上升相对较慢, 从而延长机房服务器等设备因为温度过高而宕机的时间, 提高机房内安全级别。

4 风口及温控地板节能改造

数据中心机房由于部分机柜的精密空调送风距离较远, 地板下空间相对较低, 因此在距离精密空调10m以外的机柜正面配置温控通风地板。温控通风地板带EC风机装置, 达到调节、增加风量的作用。通风地板具有自动调节功能, 当冷通道内出现了局部热点时, 可以自动调节增加冷量。

5 供配电系统节能

UPS输出配电采用智能配电模块, 可检测到每个回路的供电指标。检测供电回路额定电流、实际电流、负载百分比、负载电流谐波百分比、负载电量、功率因数等指标。

智能配电系统设计与UPS系统安装在同一套机柜内, 采用模块化结构, 可根据负载容量的需求变化增加或减少配置, 而无需关闭UPS输出或配电总输入开关。

每一条电缆、每一个插座、每一个开关、每一个配电设备, 都在明显位置进行永久性标注, 此标注能应付温度和湿度的变化。任何一个标识都能通过其颜色和代码清楚地表达其所属回路、上游设备源头、相位和位置。这样的永久性标注将使维护人员在进行检修安装时时候一目了然。

6 高效模块化UPS, 超级节能环保

机房UPS选择充分预留未来扩展容量, 满足未来3~5年机房信息化建设的设备运行发展需求, 采用高效模块化UPS设备, 50%~75%负载效率>96%, 25%负载效率>95%;输入功率因数≈1, 输入谐波电流<3%。

7 智能照明及门开灯亮、门关灯灭的节能措施

系统可分别对每一盏灯的亮度进行调整、设置。同时能够将每盏灯的亮度组合记忆在场景中, 方便调用。

系统增设探测器, 感应到移动人员后, 自动调用某一场景, 灯亮后, 进入室内人员可根据需要通过开关按键手动变更场景。人员离开房间, 探测器延时关断灯具。

8 LED照明节能

数据中心机房照明灯具的光源选择采用LED节能灯管。根据相关评测, 10W LED日光灯要比传统40W日光灯亮度高, 16W LED日光灯要比传统64W日光灯亮度高, LED日光灯亮度尤其显得更柔和更容易使人们接受。LED日光灯使用寿命在5万〜8万小时供电电压为为AC85V〜260V (交流) , 无需起辉器和镇流器, 启动快, 功率小, 无频闪, 不容易视产生疲劳。它不但超强节能而且更为环保, 也是国家绿色节能照明工程重点开发的产品之一, 是目前取代传统的日光灯的主要产品。

LED照明主要有以下几个特点:

1) 高效节能:耗电能效低。 (普通60W白炽灯17h耗电1k W·h, 普通10W节能灯100h耗电1k W·h) ;

2) 超长寿命:半导体芯片发光, 无灯丝, 无玻璃泡, 不怕震动, 不易破碎, 使用寿命可达五万小时 (普通白炽灯使用寿命仅有1000h, 普通节能灯使用寿命也只有50000h) ;

3) 健康:光线健康光线中不含紫外线和红外线, 不产生辐射 (普通灯光线中含有紫外线和红外线) ;

4) 色环保:不含汞和氙等有害元素, 利于回收, 而且不会产生电磁干扰 (普通灯管中含有汞和铅等元素, 节能灯中的电子镇流器会产生电磁干扰) ;

5) 保护视力:直流驱动, 无频闪 (普通灯都是交流驱动, 就必然产生频闪) ;

6) 光效率高:发热小, 90%的电能转化为可见光 (普通白炽灯80%的电能转化为热能, 仅有20%电能转化为光能) ;

7) 安全系数高:所需电压、电流较小, 发热较小, 不产生安全隐患, 克用于于矿场等危险场所;

9 精密空调采用了多项节能技术

1) 高能效数码涡旋压缩机, 确保机组高能效比:

采用了世界最大的工业级别压缩机制造商生产的高效数码涡旋式压缩机, 能效比高。压缩机的压缩过程连续、平稳;压缩机的排气过程旋转角度超过540°;在吸气及压缩过程中没有热量交换;在压缩过程中制冷剂气流方向没有改变;减少了气流损失;涡旋式压缩机无需高、低压阀门;减少了阀门损失, 防止产生液击;启动电流低。数码涡旋压缩机在涡旋压缩机基础上采用了数字控制技术, 数码涡旋压缩机可以在20%〜100%之间连续调节容量输出, 按机房需求提供制冷量, 确保了对室温的严格控制, 降低能耗, 同时减少压缩机的起停次数, 提高压缩机的可靠性。

2) 高效EC风机系统

室内风机采用了两个高效的EC风机, 为冗余设计。EC风机具有效率高、节能、可调速等优点, 比传统风机节能20%, 并可以根据制冷量需求调整转速, 降低低负载下的能耗。具有高冗余性, 每个风机均设计有约25%余量。

3) i COM控制器强大的联动与群控功能

通过Teamwork方式统一控制管理, 实现机房环境的节能控制。

1 0 新风预冷技术

对新风进行预处理已达到室内空气状态, 减少机房精密空调不必要的加湿除湿功能工作, 降低不必要的空调耗电。

1 1 结束语

世博中心绿色节能技术风险管理研究 篇9

在世博中心项目的设计中,率先引入“减量化(reduce)、再利用(reuse)、资源化(recycle)”的循环经济3R设计原则,展开对节地与室外环境、节能与可再生能源利用、节水与非传统水资源利用、运营管理与智能化集成等关键技术的理论研究、工程实践。作为世博会永久性场馆中重要建筑之一,世博中心在其后续利用中,绿色节能技术的应用及其风险研究有重大实践意义。

1 世博中心绿色节能技术应用

世博中心位于综合开发的世博园区内,北临世博滨江公园,南向整个世博园区,公共服务设施齐全,周围环境良好。世博中心在外观设计方面,环境绿化尤为突出。设计时将地面可设绿化面积尽量设计成绿化用地,屋顶设大面积的景观绿化,绿化物种选择适宜上海地区气候和土壤条件的植物,以体现本地区绿色植物的地方特色。同时采用包含乔、灌木的复层绿化,既可与世博中心北侧的世博公园形成富有层次的城市绿化体系,又可为市民提供遮阳、休憩的良好环境。此外,世博中心在节能与能源利用,节水与水源利用方面有很多新技术的应用,并取得了很好的成效[1]。

1.1 节能与能源利用

世博中心整体建筑体型方正,体形系数低,建筑方位坐北朝南,方位良好,建筑围护结构热工性能均满足规范要求。幕墙符合均衡热工设计及室内采光要求。东、西、南、北四面均设遮阳系统,并可根据设计要求进行调节。世博中心在节能与能源的利用主要体现在以下几个方面。

(1)太阳能光伏发电光伏建筑一体化并网发电系统是太阳能在城市中应用的主要形式,也是目前光伏应用市场的主导方向,因此世博会永久场馆世博中心应用光伏建筑一体化并网发电系统既能体现“科技世博”、“生态世博”的理念,又符合国家节能减排的政策要求。

世博中心屋顶有大片的平坦面积约4万m2,太阳能应用主要集中在屋顶。在屋顶采用常规光伏组件,采取平铺的方式,与屋顶绿化相结合,间隔布置,将太阳能绿色能源的意义体现的淋漓尽致。在屋顶设备房南立面采用了光伏遮阳组件,应用双面玻璃多晶硅光伏遮阳组件,使光伏建筑一体化应用更具显示度及创新性。世博中心太阳能光伏系统总装机功率约1MW,采用升压后并网方式发电[2]。

(2)给水排水系统世博中心采用双工况变频给水系统,解决会展期和非会展期的用水不同步,以节约设备能耗。采用短期蓄热集中太阳能热水系统,利用太阳能制备的热水量约占生活热水总消耗量的52%以上,年可节约耗热量约1.2×106MJ,约相当于58.5t标准媒的发热量,年减少二氧化碳排放量约155.7t。

(3)冰蓄冷、江水源热泵、水蓄冷系统世博中心空调冷源由冰蓄冷系统、江水源热泵机组和水蓄冷系统组成,空调冷水温度采用6/13℃。空调热源包括江水源热泵机组和燃气锅炉供热,空调热水温度采用50/40℃。冷热源系统组成主要包括2台双工况螺杆式冷水机组,单台空调工况(6.5/11.5℃)制冷量为690RT,制冰工况(-2.3/-5.6℃)时为440 RT;3台江水源热泵机组,单台制冷量500RT,供热量为1 780k W;2台2 800k W燃气热水锅炉(同时提供生活热水);蓄冰、蓄水槽及相关系统的运行水泵等。

(4)其他新技术的应用室外新风供冷技术,过渡季节及冬季,大空间人员密集场所的空调系统均可进行全新风运行,实现自然供冷。新风需求控制技术,空调区域设置CO2检测功能,在满足舒适性标准前提下,可大幅减少新风能耗。风机、水泵变频调速技术,通过改变电源频率来改变风机、水泵等运转设备的转速,从而实现在部分负荷时大幅降低输送设备能耗。通风空调系统的自动控制,空调系统全部采用自动控制装置,同时满足舒适、节能及监控要求。

1.2 节水与水资源利用

世博园区沿江而建,上海夏天的降雨量充足的特点,所以世博中心对水资源的利用方面尤为重要。

(1)雨水控制及利用系统通过合理规划地表与屋顶雨水径流途径、适当地减少雨水径流的流量和流速、最大限度地增加雨水径流的自然渗透量、尽可能地收集不透水区域的雨水并加以合理利用等诸多措施,建设较完善的雨水综合控制及利用系统。屋面雨水经收集、处理后用作杂用水。年平均可回用雨水量约为30 000m3,约占年用水量的14%以上。

(2)杂用水收集利用系统通过安全、可靠的杂用水收集利用系统,实现废水资源化。采用分质供水,提高用水效率,生活用水、便器冲洗用水、道路冲洗和绿化用水按用水水质要求分别提供。年平均杂用水利用量约为123 000m3,约占年用水量的58%以上。

(3)江水直接冷却水系统鉴于世博中心紧贴黄浦江,在征得水务部门的核准后,采用黄浦江水直流冷却水系统。直接从黄浦江取水,经加药以控制微生物和藻类生长后,作为冷却用水送水源热泵机组使用,使用后的温热水排入黄浦江。

(4)程控型绿地微灌系统采用程控型绿地微灌系统等高效节水灌溉技术,减少土壤水分蒸发,提高水分利用效率,提高绿地养护质量。比地面漫灌省水50%~70%,比喷灌省水15%~20%[2]。

2 世博中心绿色节能系统风险管理研究

2.1 世博中心绿色节能系统风险识别

在工程风险管理过程中,风险识别是最基础的环节,只有全面且有效率的识别出工程风险,才能对风险的属性和状态进行判断,从而有针对性的提出应对方案。风险识别是从系统观点出发,通过风险调查和分析,查找出工程项目的风险源,将引起风险的极其复杂的事物分解成比较简单的、容易被认识的基本单元,在众多影响中抓住主要因素。项目风险识别工作要遵循完整性、系统性和重要性3个原则。完整性原则是指在应全面完整的识别出工程项目潜伏的风险;系统性原则是指应按照工程项目施工系统的自然发展过程从工程全局的角度系统的识别工程风险;重要性原则是指风险识别应有所侧重,一方面要将重要的工程风险识别出来,另一方面要将对整体工程项目有重要影响的结构作为风险识别的重点[3]。

对于世博中心绿色节能系统来说,它综合运用了多项绿色节能技术,有些技术在国内甚至首次应用,以及世博中心对于整个世博园区的重要作用,因此对世博中心的绿色节能系统进行风险识别及分析,以及风险避让就非常重要。鉴于世博中心的特点,将其风险分为技术风险、经济与管理风险、社会与环境风险三大类。

(1)技术风险世博中心绿色节能系统涉及到多项技术的集成应用,虽然其很多技术在各自领域都已经很成熟,但能运用到这么多绿色节能技术集成在一起,世博中心算是首例,因此技术风险的识别与分析必不可少。下面主要从技术的集成风险,技术创新风险,设计风险,设备材料风险几方面来分析。

技术的集成风险,世博中心集成应用多项绿色节能技术,多个技术的集成应用存在哪些风险。比如,世博中心的空调系统主要分为冰蓄冷、江水源热泵、水蓄冷系统。这些系统在世博中心的空调系统中如何分配,如何能达到最大效用,存不存在技术及性能冲突问题等。

技术创新风险,主要是指一项新技术的创新应用,或者一项技术首次大规模地应用,技术的效果方面存在哪些风险,如果效果难以达到标准,会有什么样的弥补措施。比如,太阳能光伏发电在世博中心大规模的应用,世博中心屋顶有大片的平坦面积约40 000m2,太阳能应用主要集中在屋顶。这样大规模地应用太阳能光伏发电技术,应该考虑相关风险及应对措施。

设计风险,主要是指设计方案的缺陷,设计方案的不合理以及设计没有得到充分验证等。世博中心绿色节能系统经过长时间的设计方面甄选,方案讨论及完善,并不停地论证,所以在这方面的风险非常小。

设备材料风险,主要是指支撑这些绿色节能技术的设备、材料的风险,主要涉及到设备材料的质量、送货及时性以及后续服务质量。

(2)经济与管理风险世博中心绿色节能系统不仅在世博会期间为世博中心的节能环保提供保障,而且在世博会后续利用中发挥重要作用,因此对其经济与管理方面的风险评估至关重要。

经济因素风险,主要包括材料价格及维护成本,以及整个系统的运营维护成本。对于一个大型建筑,我们不应该只关注它的技术先进性,效用与影响,也要关注它的经济性,考虑其边际效用。这在世博中心的后续利用中重点考虑的问题,在其向国际会议中心转型中评估其运行成本,如材料的定期更换,设备的维护升级,以及付出的人工成本等。

组织管理风险,对于一个大型建筑的绿色节能系统,组织管理主要包括人员分工,定期维护计划,应急措施。详细的人员分工与问责体系来保障系统的正常运行;定期的维护计划包括世博会期间高密度的维护保障计划与后续利用中的维护与检修计划;应急措施对于任何一个项目的运营都至关重要,当然世博中心绿色节能系统也不例外,保证在任何时刻任何情况下出现问题都有合理的应对措施。

(3)社会与环境风险世博中心在整个世博会期间发挥的重要作用,也决定了世博中心的方方面面都会引起社会的高度关注,因此对其社会与环境方面的风险评估也必不可少。政策风险,主要是指国家对其相关技术领域的有关政策制度。在这方面,政府对绿色节能技术的倡导及支持力度相信多年不会改变,所以这方面的风险非常小。

社会影响的风险,绿色节能技术对社会方面的影响主要包括节能意识风险,节能认知风险。世博中心绿色节能技术能取得很大的成功,显著的效果,对社会关于环保节能的影响是非常大的,不仅会提高人们对环保节能认识水平,使人们了解可以在哪些方面实现绿色节能;而且可以大大提高人们环保节能意识,主动提倡环保节能行动。反之,若不成功对社会的反面影响也会非常大,使人们觉得环保节能是遥不可及的事情,节能认识和意识都会降低。

环境风险,绿色节能系统的成败直接会影响到环境,因此这方面的风险也是必须要考虑的。绿色节能技术的成功应用会起到保护环境的作用,但是技术的那个环节出现问题,不能达到应有的效果会给环境造成什么影响。

2.2 世博中心绿色节能系统风险评估

对于以上识别的风险体系建立模糊综合评价指标集[4],如表1所示。

建立评价集,即评价等级的集合,针对世博中心绿色节能系统评价指标体系,建立5级评价集为V={V1,V2,V3,V4,V5}={高,较高,一般,较低,低}。采用层次分析法AHP确定各指标权重,然后邀请相关领域的10名专家进行打分,从而确定指标层各评价指标隶属度,最后进行层级模糊综合评价。通过风险评估了解项目整体风险性,并了解主要风险因素,从而进行风险避让,采取相应的风险避让措施。

3 世博中心绿色节能系统险避让策略

3.1 世博中心绿色节能系统风险应对策略

世博中心绿色节能系统风险应对策略主要为三大类:风险规避、风险自留和风险转移[3],如表2所示。

其中,风险规避主要是事前控制,在绿色节能系统设计、施工前能杜绝的风险问题,严控在源头,进行有效的风险规避。风险自留是将风险保留在风险管理主体内部,自己承担风险事件的一切后果、损失。非计划性自留指风险是不可控的事后风险事件,即在损失发生后做出资金安排,非计划性自留一般是由于风险管理人员没有意识到建设项目某些风险的存在,或不曾有意识采取措施,导致风险事件发生后只能自己来承担后果,它是被动的、非计划性的。计划性自留指可预测性的风险事件,也就是指现在可以预测将来有可能发生的,但是现在无法完全杜绝的风险事件。在潜在的风险事件导致损失产生之前,通过做出各种资金安排计划,以确保在损失产生后可以及时获得资金用来补偿损失。风险转移主要通过保险、分包等方式实现。

3.2 世博中心绿色节能系统风险应对避让措施

(1)世博中心空调系统风险避让措施根据世博中心项目自身特点,从空调冷热源系统的可靠性和稳定性、能源利用效率和节能特性、环境保护效应、持续运行的经济性、对能源短缺和能源价格上涨的敏感性等几个方面来分析,最终确定空调冷源由冰蓄冷系统、江水源热泵机组和水蓄冷系统组成,空调热源由江水源热泵机组和燃气锅炉供热。技术的集成应用,不同设备的组合应用,其技术集成风险以及相应的技术风险是必须要考虑的,因此优化运行策略,科学、合理、经济、可靠地组合以上技术及设备的应用是非常重要的。

在冷源系统中可以提供冷量的设备包括江水源热泵机组、水冷螺杆式双工况制冷主机、潜热蓄冷的蓄冰装置及显冷蓄冷的蓄冷水池,不同供冷设备的供冷能力和特点均有所不同。世博中心夏季空调冷负荷3 704RT,其组成为2台双工况主机1 400RT,3台热泵机组1 500RT,蓄冷装置804RT。在夏季根据设计日工况的不同,集成冷源组合供冷模式选择有所不同。

冬季,世博中心部分功能区需要供冷,可利用水源热泵系统,可以实现冬季免费供冷。在冬季供热方面,江水源热泵机组冬季供热运行时,通过阀门切换使黄浦江水接入蒸发器侧,黄浦江水冬季工况设计温度为7/4℃,机组供热水温度为46/40℃,单台机组供热量为1 780k W。当江水源热泵不能满足空调系统供热需求时,应开启锅炉进行补充供热。锅炉一次热水为90/70℃,通过板式换热器可把46℃的空调热水提升至50℃。补热水泵变流量运行[2]。

为了最大程度地发挥空调系统的节能效果,各工况空调设备优先投入运行的顺序如下:(1)夏季供冷工况:融冰+蓄冷水+水源热泵+双工况主机;(2)冬季供冷工况:水源热泵+燃气锅炉。

(2)太阳能光伏电系统风险避让措施太阳能光伏电系统通过交给第三方公司托管的方式实现风险转移。太阳能光伏电系统采用实时上网技术,该项目太阳能光伏发电由太阳能设备公司维护管理,上网过程检测与使用由电力公司托管。

在设计方面,专门设计了“维修及清洗通道”。光伏方阵的结构设计要求要保证组件与支架的连接可靠,可以方便的对太阳电池组件进行维修、更换及清洗工作。本系统在楼顶电池组件间留有维修及清洗通道,可方便太阳电池组件后续的维修及清洗。

(3)杂用水收集利用系统及分工况变频给水系统世博中心建立杂用水收集利用系统,避免水资源的浪费风险。分别对“多余”的雨水、空调凝结水、沐浴排水、盥洗排水等进行收集再利用。根据上海一年四季的降雨情况,做出不同的雨水收集及给水措施。

分工况变频给水系统根据不同的用水工况,分别启用会展期、非会展期变频给水加压泵组,尽可能使各台水泵在设计流量变化范围内均能工作在高效区内,以降低水泵能耗。根据不同的用水工况,调整贮水箱有效容积,保证贮水箱内水的停留时间不超过24小时,有效地防止水质污染,减少因水质污染而造成的贮水消耗。

(4)其他风险应对策略以上主要说明了相关技术的一些风险避让策略。此外,在经济风险方面,世博中心有专门的项目监管方,监督材料的价格;也有专门的技术维护人员,保证会展期间以及非会展期间能源系统的正常运营;世博中心设有预算中心,有专项资金保证并控制绿色能源系统的运营。社会影响方面,世博中心综合运用多项环保节能技术,在国内首屈一指,因此,世博中心绿色能源系统的成功应用对我国其他大型建筑的环保节能的发展起到模范作用。

参考文献

[1]高文伟.中国2010年上海世博会世博中心绿色实践[J].绿色建筑,2010(1):52-59.

[2]郝国强,赵国靖,刘勉,等.中国馆世博中心主题馆太阳能应用技术[J].上海节能,2010(4):29-32.

[3]侯昶魁.长输管道建设项目施工阶段风险管理研究[D].天津:天津大学,2008:12-38.

上一篇:CAN数据总线下一篇:影视制作后期