idc机房运行分析报告

2023-06-06

很多人对于写报告感到头疼,不了解报告的内容与格式,该怎么写出格式正确、内容合理的报告呢?今天小编给大家找来了《idc机房运行分析报告》,供大家阅读,更多内容可以运用本站顶部的搜索功能。

第一篇:idc机房运行分析报告

IDC机房标准

一、IDC整体安全

互联网突出的特点是开放性和透明度,打破了时空界限,不受时区界限和地理位置的影响,但从国家安全和商业运营的角度看,安全成为十分重要的问题。随着互联网的飞速发展,不断发生网络被非法入侵,重要数据被窃取,甚至造成网络瘫痪等,给国家和企业造成了巨大损失,安全问题更加突现出来,成为刻不容缓急待解决的问题。对于IDC来讲,要取得客户的信任,安全可*是首要的基本要求,提供安全服务已成为IDC的重中之重。国外叫做整体安全(Comprehensive Security),包括24X7安全指南(Security guards),全系统N+1冗余等原则,以及网络安全与场地安全要求,并考虑地震等自然因素引起的安全性(Safety)等。

本文着重讨论IDC机房场地安全等方面若干设计特点。

二、IDC机房是拥有互连网接入功能的电子计算机机房

国际上约在1999年左右,国内约在2000年左右,出现了新一代IDC (Internet Data Center,互联网数据中心)机房,很快形成IDC热。

(一)外观特征

在IDC机房出现以前,以往的电子计算机机房的主机房,最直观、最突出的印象是简洁宽敞,与IDC机房的密集排列的机架(柜,以下统称机架)内并行叠放多层服务器,形成了强烈的对比。进入IDC机房犹如进入了图书馆的藏书库,只是“书架”更高级,“书”是平放的,且有些 “书架”放在笼子里(VIP房)。

而我居然看到有些机房或者IDC运营商居然把机架式服务器象书一样竖立放置,当时只感到背后出了一身冷汗,咱们还真不缺乏”创新”精神呀:)

(二)内在原因

以往机房除通信机房外,其共同的基本特征是部门(单位)内部需要而自建自用的机房,我们称为“自用型机房”,即便是通信机房,虽然是为公众客户服务的,但机房本身并不面向客户开放。而IDC机房是专为众多客户提供服务器托(管)租(赁)等系列化专业服务的高品质、商业化机房,我们称为“商用型机房”。特别强调提高效率、降低成本、高品质服务,才能吸引客户,获取利润。由此引出一系列新特点。

由于降低了企业(客户)入网的门槛(包括资金、技术和维管服务),特别受到中、小企业的欢迎。也适应了企业把精力专著于其核心业务,而将其余部分以外包形式委托给专业单位的发展趋势,成为行业发展的热点。

(三)尚无统一的设计规范和标准 自用型机房有专门的设计规范(《电子计算机机房设计规范》(GB50174-93);《电子计算机场地技术条件》(GB-2887-89)等)以及相应的行业标准《电子计算机机房施工及验收规范》(ST/J-30003-93)等。而IDC机房,目前尚无相关的规范和标准,可参考国内外的实例进行,处于探讨阶段。

IDC机房提出了比自用型机房更高、更严格的设计要求,是自用型机房的升级换代。IDC设计特别强调总体解决方案(Total Solution),即针对数据中心的市场定位,目标客户,提出个性化、专业化的解决方案。IDC设计一般包括网络规划设计(工艺)、机房场地环境及维(护)管(理)服务三大部分。本文重点探讨IDC机房设计特点。

三、IDC机房设计特点

IDC机房必须体现IDC设计的原则要求,并在机房设计中加以落实和具体化。IDC设计原则并未形成统一的意见,提法不一而足,比较基本的要求是安全性、可*性(可用性)、可持续发展原则(可扩展性、灵活性、适应性)、可管理性和经济合理等。

参照国内外IDC机房实例,IDC机房与自用型机房相比当然有不少相同之处,但本文要强调的是其不同点,即以下几大新特点。

(一)人机分离原则(安全性) 1.机架区布置

众多客户托租的服务器放在同一个机架区内,出于安全的要求,对客户进入机架区有许多限制,导致使用功能分区发生变化。又因安全限制措施的不同,形成各种不同平面布局方案。以是否允许客户进入机架区而划分为两大类。 (1)严格限制客户进入机架区。

既不让客户进入机架区,又要让客户了解其所托租的IDC机房所能提供的标准机房环境,则要求设参观走廊,甚至设部分透明活动地板。以及下面将分别讲述的变化。 (2)允许客户有条件地进入机架区 有条件的允许客户进入机架区,则机架区内的服务器要按客户托租的范围加以安全隔离。如把机架改为机柜;一些大户还要求将其使用范围用隔离笼分隔为独立区域(VIP房)。而且随着客户托租范围的变化,还要求能灵活调整。 不管是那一种类型,机架的布置,单位面积布置的机架数成为机架设计的最重要的技术经济指标之一。 2.增设客户区

(1)客户操作室。

按大、中、小客户分别配置不同标准的客户操作室。其配置方式与标准类似于证券交易市场分级配置的客户室。有的甚至还配置会议室供租用。 (2)服务器检测室

客户托管的服务器在该室检测、调试,合格后移放机架区。 (3)必要的客户接待用房 3.监控室变化

通常把网络监控和场地监控集中在一起,以利实时有效监视控制和管理。有的出于商业形象的需要还设监视大屏幕(正投或背投)。 网管设备也配置标准机架。

(二)全系统多重冗余

“24*7”全天候连续不间断服务(有的提法是365*24*60*60,强调分秒不断的连续服务)是由IDC高品质商业化服务的定位所决定的。要求IDC机房设计采取全系统多重冗余(N+n)原则。国外以(N+1)来表示,但从其实际内涵来看,我们提出(N+n)更为确切,N为系统内单机总数,n为系统中允许出现故障进行在线脱机检修而不影响系统正常运行的单机台数。关键是允许中断的持续时间Δ=0。

这对场地关键设备的选型及其配置方式都发生重大影响。发展出一系列的新技术和新产品。

(三)设计参数指标的非线性增长

1.空间利用密度高。采用密排并行叠放机架,大大提高了机房的空间利用率。通常采用19″标准机架,高为42u(u=1.73″≈4.4cm),宽和深有多种尺寸,以适应不同服务器和相应配线空间的需要。以宽600mm和深800mm为例,机架占地面积约半平方米。目前已能生产1u服务器,每个标准机架最多可放42个服务器。机架再进行密集排列,其空间密度之高可以想见,成为IDC机房的典型外观特征。

2.用电指标。密排并行叠放式机架,使场地用电量剧增,带动空调负载的猛增,从而形成总用电量的指数增长效应。

放置100个机架的IDC机房算是小规模的,用电量已比自用型中小机房有数量级的增加。难怪,一些机房专业设计单位和工程技术人员在刚接触IDC机房设计时,直觉的反应是怀疑业主所提的用电量是否点错了一位小数点。实际上,由于受供电现状的限制,用户所提的用电量与要求存放的服务器数量不一致,且常常偏小。 3.空调指标。服务器用电量增长,又使专用空调热负荷剧增。与自用型机房相比,在机房空调总热负荷中,机架区负荷占绝对多数,以至照明热负荷和维护结构热耗所占比例显著下降。 4.综合布线的信息点指标。高密度存放的服务器,信息点指标为每个机架布多少个点。小型IDC机房单位面积的信息点数已比自用型机房信息点指标有两个数量级的增加。相应地,布线数量剧增对综合布线方式也发生不小变化,如引起机房剖面变化,也使管线交*更为复杂。为实现对每排机架的监视,监视点也有较大增加。

5.结构承载能力。在改建自用型机房时,由于UPS电源及蓄电池组、专用空调机组、气体灭火钢瓶组等较重的设施,要对房屋主体结构承载能力作复核加固。

IDC机房的密排机架及关键设备量增加,需要复核加固的范围及数量更大,问题也更突出。这一点,对于购置房屋(包括刚建成的大厦)用作机房的业主,在选择房屋时务必加以重视,以收节约投资和加快建设进度之效。

(四)分布式配置

主要是为满足IDC机房配置的服务器规模要与客户托租规模相适应的需要。分期主要是指扩展,这是比较通行的办法。

在IDC机房建设中,尤其是中小专业数据中心服务商,还突出地提出逐步达到设计规模的要求,我们称为分批。它带来了一些特殊的技术要求,核心是场地关键设备(如电气、空调等)选型及布置要与机架(或确切地讲为服务器)逐步发展的动态匹配。

(五)经济合理

经济合理是工程的通行原则。对IDC机房要特别强调的是:

1.准确市场定位、选好目标客户,形成鲜明特色是保证经济合理性的前提。 2.结合国情

据介绍,美国IDC的造价约200-300美圆/平方英尺。设计标准较高。由于经济环境、基础设施条件、客户群体等方面的差异,必须强调结合国情进行设计,既满足IDC的基本要求,又不盲目追求先进,该精则精,能简则简,讲求实效,着眼于提高核心竞争力。 3.平滑升级,保护先期投资,处理好保持技术先进性与节省全寿命总投资的关系。 4.SLA(Service Level Agreement,服务品质协议) SLA是国际通行的服务商向客户提供服务品质的法律文件,其中明确规定达不到服务品质所承诺的经济惩罚条款。因此,必须在确保服务品质的基础上讲求经济合理性。要在确定设计参数指标、多重冗余和分批实施方案时做好技术经济多方案比较。

四、加强实测、总结

IDC机房是新一代机房,还缺乏成熟的经验,更需要在实践过程中加强实测,及时总结,积累经验,以期建立相关的设计规范和标准。例如:

通过实测和统计分析,以确定IDC机房设计参数指标。

另一方面,对IDC机房的典型问题要作探讨研究,加以改进和完善。例如,由于密集机架引起的服务器散热问题、更有效的气流组织方式及相关问题;极早期消防自动报警系统效能评价及改进;监控(包括监测、监控、监管等)系统的优化等等。

鉴于IDC机房设计涉及网络、环境、管理,场地环境又有许多分系统,需要多专业技术的综合,又处于发展初期,因此,本文只是为了应急,必定存在许多缺陷和错误,充其量只能起到抛砖引玉作用,若能引起同行关注、讨论和批评指正,也算是为IDC 机房事业发展尽了绵薄之力

第二篇:IDC机房维护

运维IDC机房经验

一、什么是IDC机房运维?

IDC机房运维涉及到方方面面的问题,它不同于其他运维,处理的问题都是比较低沉的问题。在很多公司可能都是将服务器托管的到专门的IDC机房让专业的人士进行维护,还有些大公司建有自己的IDC机房,但管理层面上可能只是网络信息部门的一个子部门,但我们仍要面对很多机房管理的问题。IDC机房运维可以简单的从五个方面来概括:主机监控、信息统计、硬件维护、系统维护、网络维护。处理这些问题就是IDC机房的运维。

二、分层运维

我认为我们所熟知的计算机能有今天的成就很大一个成功是在于它的模块化设计,以及分层体系,现在我们用的PC的硬件是由CPU、内存、硬盘、主板、输入输出设备等组成。正是这些模块化的构造让人们对计算机的维护更加的方便,快捷。

现在我们正在步入云计算时代,云计算的实施却是阻碍重重。但是云计算是必然的趋势,因为这是人们对信息自由的渴望、是对资源合理利用的迫切需要。所以说云计算的发展也少不了用模块化,分层次的进行设计和优化。

我们来看看云计算的分类 云计算可以认为包括以下几个层次的服务:基础设施即服务(IaaS),平台即服务(PaaS)和软件即服务(SaaS)。

我觉得我们现在的系统分层多且繁杂,无法体现我们在IDC机房的运维,我认为IDC机房的运维应该根据服务提供的角度去对IDC机房进行维护,从终端角度来看,所有提供网络服务的资源都是一朵朵的网云。我们在IDC机房中的运维都是为了面向终端进行服务。所以说我们应该根据服务来对我们的IDC机房进行运维。

我根据云计算服务的分类认为我们在运维分层的问题上应该和云服务的分类相呼应来进行维护,所以我认为,IDC机房的运维应该分成:基础设施维护,耦合层维护,应用服务维护三个层面。

基础设施维护

基础设施维护顾名思义,指的是对设施设备的维护,包括设备的环境维护,设备的统计等等。在这个层面我们需要保证每一台机器是可以正常连接的,是可以正常使用对外提供服务的,并且我们得保障机器的正常运行并且是可管理的。总的来说基础设施层的维护是为了对耦合层的交付使用而服务的。

耦合层维护

在这个层面我们对设备有了统一的管理,在这个层面有系统性的架构统一的管理系统,指令系统,和监控系统,在这个层面我们可以发现底层的问题,并交由底层处理,并在这个层面保证应用服务的正常运行。在这个层面将会涉及负载均衡和备份等技术。

应用服务维护

在这个层面主要是客户对自己应用的维护,在这个层面里客户对自己运行的运营软件进行维护。

当然这个分层的维护只是个萌生概念,如果有一天这个理论可以被建立,相信会被更加的完善。并且为我们更好的理解运维体系服务。

三、运维工程师

在我之前有很多人都对运维工程师进行过很多定义,大家都说运维工程师是神仙,不是人干的活。因为运维工程师所承担的东西太多了,这让很多做运维工作的朋友们都表示伤不起啊。我们可以来看看以前别人是怎么来定义运维工程师的。

运维工作师需要什么样的技能及素质

做为一名运维工程师需要什么样的技能及素质呢,首先说说技能吧,如大家上面所看到,运维是一个集多IT工种技能与一身的岗位,对系统->网络->存储->协议->需求->开发->测试->安全等各环节都需要了解一些,但对于某些环节需熟悉甚至精通,如系统(基本操作系统的熟悉使用,*nix,windows..)、协议、系统开发(日常很重要的工作是自动运维化相关开发、大规模集群工具开发、管理)、通用应用(如lvs、ha、web server、db、中间件、存储等)、网络,IDC拓朴架构等等,但是我们知道每个人不肯能样样都很精通,每个人的知识层面不可能像水桶一样,我不否认这种人的处在,但是人的精力是有限的,一个人挖10口1米的井估计很难挖出水来,但是一个人挖一口10米的井我想挖出水的可能性还是很高的。所以说如果运维工程师通过分层运维将运维的知识面分开来进行突破,我想运维水平的提高指日可待,运维工程师的工作负担也会相应的减轻。

那么运维工程师在技能和个人素质方面需要什么要求呢?

我觉得在技能方面不需要过分去强求,只要懂得计算机的基本原理等计算机知识就可以,其他的个方面知识都可以通过后天的培养获得。

在个人素质方面应该具备以下几点:

个人素质方面:

1、沟通能力、团队协作:运维工作跨部门、跨工种工作很多,需善于沟通、并且团队协作能力要强;这应该是现代企业的基本素质要求了,不多说。

2、工作中需胆大心细:胆大才能创新、不走寻常路,特别对于运维这种新的工种,更需创新才能促进发展;心细,运维工程师是网站admin,最高线上权限者,一不小心就会遗憾终生或打入十八层地狱。

3、主动性、执行力、精力旺盛、抗压能力强:由于IT行业的特性,变化快;往往计划赶不上变化,运维工作就更突出了,比如国内各大公司服务器往往是全国各地,哪里便宜性价比高,就那往搬,进行大规模服务迁移(牵扯的服务器成百上千台),这是一个非常头痛的问题;往往时间非常紧迫,如限1周内完成,这种情况下,运维工程师的主动性及执行力就有很高的要求了:计划、方案、服务无缝迁移、机器搬迁上架、环境准备、安全评估、性能评估、基建、各关联部门扯皮,7X24小紧急事故响应等。

4、其它就是一些基本素质了:头脑要灵光、逻辑思维能力强、为人谦虚稳重、亲和力、乐于助人、有大局观。

5、最后一点,做网站运维需要有探索创新精神,通过创新型思维解决现实中的问题,因为这是一个处于幼年的职业(国外也一样,但比国内起步早点),没有成熟体系或方法论可以借鉴,只能靠大家自已摸索努力。

四、机房运维技术体系

在机房中我们要面对各种各样的事情,如服务器上架,服务器下架,处理问题服务器等等。在机房运维中我觉得也应该建立起我们的技术体系,从这几方面入手使得我们的机房运营的更加平稳健康。

1、监控体系,一个健壮的身体里不开每天的观察,我们需要时时刻刻观察我们的机房,看看机房发生的细小问题,所以说强大而有健全的监控体系有利于我们更好的维护我们的机房。

2、统计体系,在IDC机房我们管理着数以百计的服务器,统计工作可马虎不得,每一台机器的配置,存放位置等等,都关系着数千元的设备的物理安全,其他的还有带宽安全等等。数量少还好,数量一多就有可能出错,如何快速高效的统计,并不出错也是门技术。所以单独为一个体系也是有必要的。

3、故障管理体系,在机房中我们要处理每一台服务器发生的故障,有些问题很棘手,有些问题很简单,但大多数问题都有相似性,可以参考其他问题的处理过程处理,良好的故障管理体系肯定是有助于我们快速的响应和处理问题的。

4、自动化体系,太多的手动执行大大影响了我们处理问题的工作效率,机房运维引入自动化的理念开发自动化管理工具可以大幅度的提高我们机房的管理效率。

5、评估优化体系,正所谓人无完人,在好的东西也有不好的地方,如IPONG待机时间短,建立评估优化体系使得我们可以在定期的时间内发现我们不足的地方,更好的优化我们的不足之处

五、如何成为一个合格的运维工程师

我认为做好IDC机房的运维就是要保障最底层的运维维护安全。如何高效的维护好底层的设备是每一个IDC运维工程师应当具备的职责。我们可以做好以下几个方面。 第

一、统计记录好机房机器运行的信息。如上下架记录,故障处理记录,监控记录等等,做到高效快速的统计好所有机房信息。

第二、监控。熟悉和掌握监控软件的使用,做到可以更具监控工具的组合应用定位故障点,初步反应故障原因等。

第三、通过创新思维以及熟练操作提高并解决运维效率问题;目前各公司大部份运维主要工作还是依赖人工操作干预,需要尽可能的解放双手。以及熟悉每一个运维环节的操作。

第四、运维知识的积累与沉淀、文档的完备性。运维是一个经验性非常强的岗位,好的经验与陷阱都需积累下来,避免重复性范错。并且可以在相似问题发生的情况下快速反应。

第五、有计划的做事;工作有计划,计划后想方设法达到目标,不找借口。机房运维工作大多都比较少,通常都是处理问题,但有很多事情是需要定期去做的,比如统计、评估、优化等等。

六、运维职业的迷惘、现状与发展前景

运维岗位不像其它岗位,如研发工程师、测试工程师等,有非常明确的职责定位及职业规划,比较有职业认同感与成就感;而运维工作可能给人的感觉是哪方面都了解一些,但又都比上专职工程师更精通、感觉平时被关注度比较低(除非线上出现故障),慢慢的大家就会迷惘,对职业发展产生困惑,为什么会有这种现象呢?除了职业本身特点外,主要还是因为对运维了解不深入、做得不深入导致;其实这个问题其它岗位也会出现,但我发现运维更典型,更容易出现这个问题;针对这个问题我谈一下机房运维的现状及发展前景(也在思考中,可能不太深入全面,也请大家斧正补充)

运维现状:

1、处于刚起步的初级阶段,各大公司有此专职,但重视或重要承度不高,可替代性强;小公司更多是由其它岗位来兼顾做这一块工作,没有专职,也不可能做得深入

2、技术层次比较低;主要处于技术探索、积累阶段,没有型成体系化的理念、技术。

3、体力劳动偏大;这个问题主要与第二点有关系,很多事情还是依靠人力进行,没有完成好的提练。

发展前景:

2、从个人角度,运维工程师技术含量及要求会越来越高,同时也是对公司应用、架构最了解最熟悉的人、越来越得到重视。

3、运维将成为一个融合多学科(网络、系统、开发、安全、应用架构、存储等)的综合性技术岗位,给大家提供一个很好的个人能力与技术广度的发展空间。

4、运维工作的相关经验将会变得非常重要,而且也将成为个人的核心竞争力,具备很好的各层面问题的解决能力及方案提供、全局思考能力等。

5、特长发控和兴趣的培养;由于运维岗位所接触的知识面非常广阔,更容易培养或发挥出个人某些方面的特长或爱好,如内核、网络、开发、数据库等方面,可以做得非常深入精通、成为这方面的专家。

6、如果真要以后不想做运维了,转到其它岗位也比较容易,不会有太大的局限性。当然了,你得真正用心去做。

7、技术发展方向、网站/系统架构师。

第三篇:IDC机房设计浅析

经历了ISP/ICP飞速发展。COM公司的风靡后,一种新的服务模式――互联网数据中心(Internet Data Center,缩写为IDC)正悄然兴起。IDC是传统数据中心与Internet的结合.它除了具有传统的数据中心所具有的特点之外,还具有访问方式的变化、7×24小时服务、反映速度快等特点。形象地说,lDC是一个高品质的机房,在其建设上对各个方面也有很高的要求。

作为今天的电信运营商而言,IDC业务模式是其利润的主要来源。也是其能否成功的重要特征之一,因此目前几乎所有的电信运营商都在积极地进行IDC的建设,除此之外还有一些基于房地产背景及系统集成背景的公司也同样在筹划建设IDC,因此IDC间的竞争相当激烈。IDC的建设包括网络建设及机房场地建设两部分内容。

机房场地的建设是lDC前期建设投入最大的部分。由于IDC的用户可能把重要的数据和应用都存放在IDC机房中,所以对IDC机房场地环境的要求是非常高的。IDC的机房场地建设主要在机房空间、配套系统等如下几个方面:

-机房装修。机房装修主要考虑吊顶、隔断墙、门窗、墙壁和地板等。

一供电系统。供电系统是IDC的场地建设重点之一。由于IDC的大量设备需要极大的电力功率,所以供电系统的可靠性、可扩展性建设是极其重要的。

一空调系统。机房的温度、通风方式和机房空气环境等。

一安全系统。包括门禁系统、消防系统和监控系统。

一通信系统。包括数据线带宽、语音线路数目等。

IDC网络建设是为IDC用户提供包括Internet连接层、核心层、分布层、服务接入层以及后台管理平台在内的整个数据网路,并保证其网络连接的速度及可靠性,从而为用户提供高质量的服务。IDC提供的业务主要包括网站托管(Web Hosting)及主机托管(Co-location)等模式。在进行IDC网络建设时,由于lDC提供业务模式的不同,使得其在对网络设计时的要求也不相同。

本文仅从IDC机房的机房场地建设以及运维角度,对影响其成功建设所面临的问题进行分析。

首先。IDC配套系统及lDC机房空间的扩充性、运维成本、机房管理等问题,是所有机房在建设前以及运行维护期间必须着重考虑的问题。由于通信运营部门对机房进行规划及工艺设计时考虑的角度也是不一样的,因此导致该机房正式投入使用并进行运行维护时的使用灵活性、运行成本、运维管理方式以及所面临的问题均有较大出入。

对于lDC机房的设计规划是以标准量为依据来计算,机房营业的空间则是以业务所需要达成的目标为基准来进行规划。那么机房及配套系统规划设计的结果是该系统所能达成的计算最大值。相应的投资成本与运行费用也是系统的最大值。但为了尽可能减少建设成本,部分IDC建设者在工程最初的规划设计中根据现有系统的规模以及可能的投产使用量为标准来进行机房规模的估算,而这种情况对机房及配套系统的扩容性带来一定的影响。因此IDC建设者在不能准确预期系统增设规模与需求量的情形下,经常会遭遇到扩容困难的状况,使用者也经常陷入机房改建或忍受风险的两难之境。

根据上述问题,在规划设计IDC机房时,IDC建设者对于机房空间利用率的问题应该最优先考虑。通常机房空间的扩充会导致其他配套系统容量的有可能不足,因此配套系统的增容问题也会因此伴随而来。这对lDC机房配套系统的整体架构造成很大影响。所以,在新兴的lDC机房设计中,往往将空间利用率列为最优先的考虑因素,而在进行系统的设计时应以此为计算依据。当系统整体的规划设计完成以后,再根据不同的项目建设周期和建设项目投资预算情况对整体项目进行分阶段实施。这样既可以使工程建设保持比较好的扩展性,又不至于造成一次建设投资过大的问题。

配套系统的扩容性与机房空间的扩容性比较起来,其影响面较为单纯。但造成配套系统扩容的原因与机会,要比造成机房空间扩充的原因来得多,尤其是目前信息与网络应用设备更新的速度加快,设备体积的不断缩小以及功能的不断增强是设备供货商研发的共同目标,这就导致机房设备的用电需求与机房散热量增加的问题出现.使IDC机房原设计的电力与空调计算量已无法配合现有的使用状况。举个例子来说。以一个容量为41U的机柜而言,传统的机架式计算机若密集放置可以放置约8台,而新型的1U机架式计算机则可以放置近30台,数量上两者差异约3倍余,在电力需求上至少相差2倍以上,同时设备制造的热能也相对增加。因此机房配套系统的需求量在机房空间没有扩容的情况下,也可能有扩充的需求。

IDC机房配套系统扩展性的解决方案是在首期工程建设时,在基础建设上进行完整投资。而在主系统设备的建设上进行分期建设。同时有一个非常重要的因素必须在设计规划阶段特别注意,那就是在后期系统扩容时,必须保证在原系统持续运行的情况下进行。否则在每次系统扩容时,机房内的应用系统也要随着停止服务,这将是营运者与使用者的最大梦魇。所以在完整的基础设施建设与分期建设的主系统的接续位置,如水路骨干上预留开关阀,以及电力系统一至二次侧增设回路开关等,虽然这种解决方案在基础建设成本上有一定的增加,但在考虑未来系统扩容的情况下。则可以获得极佳的扩容便利性。

IDC的成功建设除了需要充分考虑IDC配套系统及IDC机房空间建设方案,IDC的维护人员也是机房正常运行的核心。由于不同建设模式衍生出不同机房及系统的构成,后续的维护运转成本与机房管理模式也随之不同,而这两者之间,其实是息息相关的。真正的机房管理应该包含机电维运部门与网络管理中心两部分,前者是基础保障,后者是营运管理,只有两个部门密切协作,lDC机房才能正常有序地运行。

以机电维运部门来说,机房内的五大系统,电力、空调、消防、安全及环控相互赖以为生,任何一个机电的问题都会导致上述系统的溃决,进而引发更大的灾害。所以机电维护是机房的基础保障。然而在现有的IDC机房中,很少做到7天24小时的机电维护待命编组,多数是以定期保养、紧急报修的委外维护合作取代。可想而知的是,有情况发生时其实是没有多大解决能力的。例如台风来袭、风疾雨劲,电力公司输电系统受损,机房电力中断,发电系统又偏偏出现异常而无法提供电力,这时候需要提供紧急维修。可就算联络得到维护公司,但又受阻于天然灾害无法抵达现场,也就只能眼睁睁地看着UPS系统电力耗尽而中断机房的服务。事实上,因市电电力中断造成空调系统停机的一小时内,机房早就因过热而跳机了,就算是UPS系统也英雄无用武之地。所以,配置随时待命的机电维运人力其实是IDC机房建设不可或缺的一环,他不仅可在平时确保所有系统正常操作,延续系统功能使用年限,确保系统于紧急状况时发挥其应有的效能。更可在不预期的突发状况发生时。实时有效地排除障碍,保持不间断提供机房服务,从而实现对客户承诺的服务保证。

就网络管理中心而言,他是机房五大系统的应用管理者,从人员管制、系统监控到数据分析等。都是为了预防任何不必要的人为疏忽而造成灾害;除此之外,他还兼具了应用网络与电信系统的维护、客户服务与24小时之联系窗口功能。因此,网络管理中心的人力编制是否得当,会影响机房是否能正常地运作。一般而言。两个作业人力是基本的编组,计算基准是以一个待命监控人力,加上一个可执行服务作业的人力,这样的编制才能执行有效且安全的管制作业。

因此,透过网络管理中心与机电维运部门的相互配合及有效的管理,才能达到真正全年无休的机房服务。而这样的编组会造成机房维运成本的增加。机房维运成本不外乎水电费、空间成本、设备使用年限及人事费用等,其中除了人事费用外,几乎都是无法减少的,所以大多数IDC经营者就只能想办法降低人事费用支出,以降低成本,增加市场竞争力。但却不知,人才是机房运作的真正核心所在,因为所有的风险与意外损失,它的代价比起人力成本更是庞大,而没有完整编组的机房营运,在实质上。是不能提供给客户与系统良好的服务与保障的。

第四篇:IDC机房装修数据中心机房模型介绍

1、数据中心机房模型介绍

数据中心机房是为电子信息设备提供运行环境的场所,可以是一幢建筑物或建筑物的一部分,包括主机房、辅助区、支持区和行政管理区等。典型数据中心机房模型如图1所示。

典型数据中心机房工程按照功能划分,主要包括辅助设备区(UPS及其电池、柴油发电机组)、主机房、监控室、会商间和办公区等。在实际建设中数据中心机房功能区域的设置和平面布置可以视具体情况有所不同。 数据中心机房的使用性质、管理要求及其在经济和社会中的重要性决定了其特殊性和安全性。它作为建筑物或建筑物的一部分,必然会受到外部环境的干扰,从而影响数据中心机房内电子信息设备的正常运行,轻者遭到经济损失,重者可能影响社会稳定,造成不可估量的重大灾难。外部环境主要包括不安全人员、雷电、水灾、电磁干扰、地震等。典型数据中心机房的风险识别和控制措施如图2所示。

基于数据中心的特殊性和风险控制的需要,典型数据中心机房工程所涵盖的工程内容主要包括以下几方面。

(1)装饰装修工程 ①机房区环境工程;

②办公区环境工程;

③监控区环境工程;

④动力区环境工程。

(2)电气工程

①柴油发电机系统;

②不间断电源配电系统;

③动力配电系统;

④照明配电系统;

⑤电源防雷系统;

⑥机房接地系统。 (3)空调工程

①专用空调系统;

②辅助空调系统;

③新排风系统工程。

(4)消防工程

①自动报警系统;

②分区气体灭火系统;

③分区水喷淋系统。

(5)弱电工程

①楼宇设备自控系统;

②安防控制管理系统; ③通信网络自动化管理系统;

④结构化布线系统;

⑤公共信息系统;

⑥监控中心控制系统。

典型数据中心机房专业分布如图3所示。

数据中心机房工程的用途决定了其设计和建设的复杂性。在工程设计和施工过程中应着重解决如下问题:可用性、可管理性、安全可靠、节能环保。

为了更好地解决上述问题,数据中心机房工程设计、施工等参与各方应综合各专业的技术要求,并进行有效的整合、协调和集成,使得各专业在数据中心机房中发挥应有的作用,并形成一个有效的整体,为其中的电子信息设备运行提供高效、平稳的运行环境。

数据中心机房工程设计和施工所涉及的问题极多。文中就几个横跨多个专业的问题展开讨论,并结合笔者多年的工程经验提出相应解决方案:冷热通道的气流组织;管线综合平衡;集中监控平台。

冷热通道的气流组织

数据中心机房的气流组织形式应根据电子信息设备本身的冷却方式、设备布置方式、布置密度、设备散热量、设备散热方式、室内风速、防尘、噪声等要求,并结合建筑条件确定。机房气流组织形式、风口及送回风温差如表1所示。

数据中心机房工程中机柜或机架高度应大于1.8m、设备热密度大、设备发热量大或热负荷大,一般采用活动地板下送风、上回风的方式。目前应用最广泛、最适用的气流组织形式为冷热通道的送回风方式。冷空气从机柜或机架的前面吸入,热空气从机柜后面排除。设备放置在机柜或机架内,将会达到极好的散热效果,如图4所示。

按照上述气流组织的要求,以下问题应得到很好的解决:

(1)静压箱的形成

根据《电子信息系统机房设计规范GB50174-2008》的要求,活动地板下的空间作为静压箱时,地板高度不宜小于400mm。活动地板下空间作为静压箱还应做好如下工作:

①应尽量选择优质的活动地板,以保证在长期低温恒湿环境下材料不变形,不膨胀。

②活动地板的铺装应加强质量管理,尤其在边角处理上一定要牢固,以免发生变形影响静压箱的密闭性。

③活动地板下的空间应做好封堵工作,尤其在管槽出入处、门(洞)口、轻质隔断等部位的封堵,以保证静压箱的密闭性。

④机柜或其它电子信息设备下方及下进线口应保证密封。

(2)保温处理

目前,多数数据中心机房工程选用机房专用空调。为了将机房温度控制在23℃±1℃,无论是水冷还是风冷系统,空调机组的出风口的空气温度一般在15℃以下。这样,整个静压箱的空气温度也将维持在此水平上。而机房下层作为办公区域,其空间温度一般维持在25℃左右。这样,机房地面(即下层楼板)上下会形成将近10℃的温差,极易在下层楼板结露,从而影响下层办公区域的使用。因此,地板下必须做好保温处理。保温材料的选择应满足消防要求,并应采用环保材料。目前,地板下保温材料多选用闭泡橡塑板。

(3)设备布置

为了保证气流组织顺畅,数据中心机房内设备布置应有利于空调送回风。目前广泛采用的方式为设备列与空调机组送风方向保持水平,避免交叉甚至垂直。图1所示的典型数据中心机房模型中,空调机组正面应与机柜(或设备)列正反面保持垂直。

机柜或机架的前门应朝向冷通道,而后门则朝向热通道。因为大量电子信息设备的风扇安装在设备后侧,这样将有利于冷通道吹出的冷空气在设备内主动流通,大大提高了散热效果。

在不同数据中心机房中可能安装不同类型的电子信息设备,但只要采用冷热通道气流组织,均应尽量按照上述原则进行设备布置。

(4)地板排布及风口安装

数据中心机房工程在采用冷热通道送回风方式时一般采用架空活动地板。目前,机房工程大量采用的是600×600(mm)的抗静电地板。选择风口地板时,应尽量选择与相应地板配套的风口地板。按照冷热通道气流组织要求,冷通道应安装风口地板,而在机柜或其它电子信息设备下方则应密封。照此原则,为了后期运行维护方便以及机房整洁美观,冷通道(设备列中)安装的风口板应尽量选择整板。结合地板的尺寸,如果冷通道放置两列风口地板(地板尺寸为600×600mm)时,宽度不宜小于1200mm(即可安装两整块风口地板),考虑到设备或机柜的尺寸,热通道的宽度可以做适当调整,以保证设备或机柜与地板缝协调。

数据中心机房设计时,设计人员应在地板平面图中注明风口地板安装数量和位置。风口地板的数量及安装位置应按照设备散热量、风口地板通风率、室内温差控制等因素综合考虑,由空调专业人员计算设计。在工程后期调试阶段,调试人员可以根据测试数据适当调整风口地板的数量和安装位置,但必须经过设计单位同意。

(5)管线综合

数据中心机房管线综合是一项复杂又必要的工作,具体解决方案详见后文。在采用冷热通道气流组织的机房工程中,管线综合应按照有利于气流组织顺畅的原则进行综合。

(6)回风保证措施

如图4所示,热通道的热空气应该顺畅地回到空调机组进行制冷处理,才能有效保证气流组织的顺畅性,从而有效降低设备温度。保证回风的措施主要包括:

按照图4所示,机柜或设备上方应该留有足够的空间才能有效保证回风要求。按照工程经验,机柜或设备的高度一般不超过2m,上方净空不宜小于0.6m。即机房的有效吊顶下净高应保持在2.6m以上,尤其是上走线方式的机房更应该保证不小于2.6m的净高。机房选址时应充分考虑建筑物的层高,以保证机房的净高。

在上走线机房内,管线综合时应充分考虑有利于回风的原则。

空调机组回风口应保证回风通畅,不应有遮挡。

(7)防尘处理

按照数据中心机房要求,静态条件下测试,机房内≥0.5μm的尘粒数≤18000粒/升。在采用冷热通道气流组织的数据中心机房内,空气的流动是十分顺畅的。这要求在气流组织通道内必须做好防尘处理。

地板下原地面应做好防尘处理。在地面保温和地板施工前,原地面应做好洁净处理,并刷(喷)防尘涂料,做好隐蔽检查记录。

原楼板(或有效转换层)做好防尘处理。在吊顶或转换层施工前,原楼板(或有效转换层)做好洁净处理,并刷(喷)防尘涂料,做好隐蔽检查记录。

数据中心机房内风管等保温材料应尽量避免使用玻璃丝绵等易起尘的材料。

(8)环保和节能措施

最新数据中心机房工程要求绿色和可持续发展,绿色数据中心机房是设计和施工参与人员今后长期一段时间共同的目标。

绿色数据中心工程涉及的专业多、内容也十分复杂。笔者结合工程实践经验,就采用冷热通道气流组织的机房工程在环保和节能方面的注意事项做如下介绍:

前文讲到为了有效回风,机房的净空不宜小于2.6m。但并不是说机房的净高越高越好。因为机房净空过高,气流组织空间加大,空调的负荷将加大,不利于节能。而机房净高在2.6~3.0m之间将会在回风和节能方面达到平衡。所以,机房选址时应尽量考虑这方面的因素。如果机房层高过高,一般建议增加二次吊顶及转换层,以降低机房净高。

为了保证气流通畅,机房空调机组将加压送风。空调设备出风口至最远端风口地板的距离俗称送风距离。送风距离如果较远,设备送风压力就大,而压力越大,机房噪声也将越大,而且空调效率也会大大降低。有人值守的主机房和辅助区,在电子信息设备停机时,在主操作员位置测量的噪声值应小于65dB(A)。为了降低机房噪声、提高空调设备效率,送风距离不宜超过15m。在机房选址、设计、平面规划时应考虑这方面的问题。

管线综合平衡

数据中心机房是涉及多专业的集成工程。为了更好地解决数据中心工程专业协调、环保节能、使用方便、可扩展性和观感美观等关键问题,数据中心管线综合是一项十分必要而又复杂的工作。在项目设计和施工前、过程中,设计和施工等参与人员应该结合本工程做好规划和落实。

目前,更多的数据中心工程采用上走线无吊顶方式进行管线综合设计。笔者就此类典型的数据中心机房工程在管线综合方面做如下介绍。 (1)顶部联合支架安装

在采用上走线方式的数据中心机房中,顶部会有大量的机电安装工作,比如灯具、强弱电桥架、风管、消防报警、气体灭火管道、摄像机等。按照传统的安装方式,施工人员将在机房原顶板打大量的孔并采用膨胀螺栓连接。这种安装方式将产生如下不利影响:

①在原顶板大量打孔将有损原楼板结构;

②安装完成的设备不能移动位置,将不利于后期电子信息设备的安装和使用。

③可扩展性较差。随着机房后期发展,机房内设备有可能增加,相应强弱电线槽等将增加。如果采用传统的安装方式,势必在后期安装时将重新打孔,成品保护将是一个难题。

顶部联合支架安装方式将很好地解决上述不利影响。所谓顶部联合支架是指在原楼板下安装一层1200mm×1200mm网格∏型钢转换层。上述所有安装工作均在转换层受力,并与转换层卡接,而不是焊接。这样所安装的设备将可以在转换层上滑动,这样可以提高机房的灵活性及可扩展性。灯具的安装则采用倒∏型大龙骨,相应电源线敷设在大龙骨内,而灯具也可以根据实际需要在大龙骨上滑动。图5所示顶部联合支架安装实例。(未完待续)

(2)顶部气体灭火管道和报警管线排布和安装

顶部无吊顶的机房内只在顶部安装一层气体灭火管道和报警。消防报警应安装在顶部最高处,而气体灭火管道则紧贴转换层安装。

(3)顶部新排风管道排布和安装

为了保证机房内净高和气流组织顺畅,新排风管道排布应在满足规范的前提下尽量沿机房墙体贴顶安装,但不得安装在空调机组上前方或正上方,以免影响空调回风。此外,风管排布应与空调送回风方向顺直,不宜交叉甚至垂直。

(4)灯具排布和安装

无吊顶机房顶部的灯具应安装在设备或机柜列中上方,不宜安装在设备或机柜正上方。这样可以保证操作人员作业时有效利用照明。灯具的安装高度应在消防设施(气体灭火和报警)和强弱电管槽之间。

(5)上走线强弱电桥架排布和安装

采用上走线方式的机房在强弱电桥架安装时应结合机柜或设备的下线方式排布。比如某些机柜或设备在其背侧下线,相应桥架安装时应靠后侧安装,反之亦然。此外,为了保证桥架至设备下线弯曲半径符合规范,并且顺直美观,桥架高度以高出机柜200~400mm为宜,但距装修完成地面不宜低于2.2m,并要求机房内同类桥架高度尽量一致。

强弱电桥架安装时应与空调回风方向顺直,不宜交叉甚至垂直,尤其要避免在空调机组回风口附近交叉或垂直。

(6)地板下气体灭火管道和报警管线排布和安装

地板下气体灭火管道和报警管线应尽量贴近活动地板底部安装,并且与空调送风方向顺直,不宜交叉甚至垂直,尤其要避免在空调机组送风口附近交叉或垂直。 (7)地板下线槽排布和安装

目前,无吊顶机房大部分采用弱电上走线,强电下走线。强电线槽在地板下安装时应与空调送风方向顺直,不宜交叉甚至垂直,尤其要避免在空调机组送风口附近交叉或垂直。

为了保证送风顺畅,线槽应在热通道地板下敷设。这里要特别说明空调机组电源电缆敷设时,线槽应在机组后侧安装,以免影响空调机组送风。

第五篇:IDC机房机柜布线标准

1、电源线插头与服务器电源接头两端要标签扎带

2、如果一个机柜有内外网的交换机,尽量用两种不同颜色网线区分开来

3、柜子与柜子之间走线要从机柜顶端方向布线

4、连接服务器与交换机两端的网线头后端要标记同编号的扎带标签,且与交换机端口号编号一致

5、电源线与网线分机柜两边走线,每一小节要用扎带扎好

6、机柜服务器不能太多台叠加一起,要用挡板分离开来,有助维护与服务器散热稳定性

7、交换机要用配套耳朵固定在机柜顶端,有助于网线的走位

8、贴好每台服务器IP或者根据应用划分的标签

9、贴好每台服务器的资产号,通过标签打印机把资产号+条形码一起打出来,以后核实到IDC机房核实资产,可以通过条形码扫描仪扫描出来。每台设备打印两张一致的,设备前面贴一个,设备边上贴一个,由于编号是唯一性的,预防资产号丢失

10、核心交换机接到二层交换机的网线两端或者光纤要用扎带标签贴好,写上此端口连接到哪个机柜号哪个交换机哪个端口号,如:con-to-6-2-C3560-7

11、尽量不要在服务器贴IP地址,如:贴上应用标签,这样比较安全,一些托管商设备零散只能贴IP,交换机和防火墙不要贴上IP地址,写上内外网就行了,如:outside与inside

12、查看机柜下面空调挡风口闸门是否打开,以免设备过热死机

13、重装某台设备系统时,不要把显示器电源接在与服务器连接插排上面,每个机柜都有提供一个专门接显示器或者外接插排的插座,以免显示器电源接口因接触不好或者使用不当导致整个插排都断电.

14、日常重整资源时,会不经意碰到网线或电源线导致设备down掉,所以在处理过程区间或临走时关机柜,要多观察交换机的端口是不是都是亮着的。

上一篇:护理学自我鉴定300字下一篇:icu护理应急预案演练

本站热搜