机房综合布线地系统结构设计.doc
《机房综合布线地系统结构设计.doc》由会员分享,可在线阅读,更多相关《机房综合布线地系统结构设计.doc(39页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。
1、/机房综合布线的系统结构设计首先要确定工作区信息点的布局和数量。最理想的当然是能够明确设备需求。这样可对当前的设备有准确的信息点配置。在此基础上,再考虑一定的扩展余量,一般建议取 10%一 20%,不宜太多。因为机房服务于整个网络,其内部设备的变化比较频繁,准确的预计比较困难,建议更多地考虑扩展方便而不是一步到位。而且这样考虑也能降低成本。考虑扩展性时,应将布线的路由通道考虑充分。机房内服务器和终端数量众多,设备的安装形式分为两种主要的布置模式:塔式服务器和机架式设备。二者对信息插座密度的需求相差较大。布置时应确定安装模式、数量、接口数、接口规格。(一)塔式服务器采用落地安装的模式,安装密度很
2、低,每平米不到 2 台。也有用户将塔式服务器安装在标准服务器机柜内,一台机柜只能安装 24 台。还可采用多层的敞开式机架,机架为 3 层,一个机架可安装 12 台左右服务器,平均每平方米 56 台。(二)标准机柜式服务器目前最薄的服务器厚度仅有 lU,但通常不完全塞满机柜空间。这样一台标准服务器机柜可以安装几台(厚的)到三十台(薄的)左右的服务器,需要的信息点的数量也较大。建议一个标准服务器机柜按照 1224 台配置。在确定了信息点的大致数量后,需要对布线结构进行合理规划。当机房面积较小(200m2以下),信息点在 200 点以下时,建议只采用水平布线模式,将配线架安装在网络机房的配线柜内,所
3、有机房信息点直接端接到配线架上。当机房面积较大,特别是信息点数模式,将会增加线槽的数量和线槽的横截面。如果线槽布置在活动地板下,将对有精密空调的区域造成很大的送风阻力,实践表明这是影响空调效果的主要原因。同时,众多线缆全部汇集到一处的星型布局使线缆清理困难,增加了管理的难度。这时建议采用两级布线:水平子系统和干线子系统。将 FD 放置到机房信息点密集的地方(如主机室),经过交换机后,再通过主干连接到网络室。这种将配线架深入需求中心的结构可大幅度减少电缆数量,减少机房地板下各专业管线打架的概率,减少对下送风空调的影响。这种方式的缺点是增加了交换设备的成本;管理上造成网络和系统两个部门的交叉;多了
4、一级交接,可靠性有所降低。有些用户觉得通过两级配线后会增加网络的不可靠性,因此采用长跳线将交换设备和服务器直接相连。这种办法由于没有配线架,无法进行很好的管理,不建议使用。其次,确定布线等级。系统选型应根据需要选择合适的布线等级。目前主要采用的是超五类和六类系统。超五类系统的测试带宽达到 155MHz,而六类系统的测试带宽达到200MHz,可以在铜缆链路上支持千兆传输。更高的性能还有超六类产品。但由于没有相关标准予以衡量确定,均是各个厂家的自行测试和称谓,不建议采用。布线又分屏蔽系统和非屏蔽系统,两者的区别主要体现在线缆上。双绞线本身是由对绞的两根线缆组成,再由多对线组成电缆。它应用了平衡线缆
5、的概念:一条线缆有两条同样的导线,两条线上运行的电压对地极性相反、大小相等,通过相互绞合在一起,可以在一定距离上维持平衡。使两条导线之间的距离最小化的方法是将它们绞合在一起,这样有助于补偿它们接收到的外部干扰。平衡线缆意味着双绞线对中的两条导线是同样的长度和尺寸。它们之间越一致、靠在一起越紧密,就越容易抵御外部线路对他们产生的干扰。更高的传输速率需要更高的线路抗干扰能力,因此采用屏蔽布线系统对提高系统带宽是有益的。通常屏蔽双绞线采用每对线对单独屏蔽,再将所有线对总体屏蔽的方法实现最高的抗干扰能力。屏蔽电缆(FTP)的屏蔽原理不同于双绞的平衡抵消原理,FTP 电缆是在双绞线的外面加一层或两层铝箔
6、,利用金属对电磁波的反射、吸收和趋肤效应原理(所谓趋肤效应是指电流在导体截面的分布随频率的升高而趋于/导体表面分布,频率越高,趋肤深度越小,即电磁波的穿透能力越弱),有效地防止外部电磁千扰进入电缆,同时也阻止内部信号辐射出去干扰其他设备的工作。实验表明,频率超过 5MHz的电磁波只能透过 38m 厚的铝箔。如果屏蔽层的厚度超过 38m,就便能透过屏蔽层进入电缆内部的电磁干扰的频率限制在 5MHz 以下,而对于 5MHz 以下的低频干扰可用双绞的原理有效的抵消。屏蔽系统的难点是对施工工艺要求更为严格,否则反而可能引人不必要的干扰,降低性能。屏蔽系统的另一个主要特点是保密功能,可以防止信息的泄漏。
7、目前的超五类和六类系统均有屏蔽和非屏蔽产品。注意,屏蔽产品的选用要端到端地实现,不能只是线缆采用屏蔽线而配线架和插座不采用具有屏蔽能力的。中型数据中心机房的规划与设计(一)信息化与数字化成为各个企业、行业提高速度、提高效率,获得效益的关键手段,而全球信息化与数字化的愈来愈成熟,为我们追求效益提供了方法、手段、标准。(1)数字化:企业的业务、流程、经营、管理等等,相关活动全部进行数字化(2)无纸化:过去基于传真、电话的定单模式不能适应数字化的要求,企业或组织的各种活动通过计算机网络自动进行,办公方式转为无纸化办公。(3)集中化:分散的信息化不能形成规模效应,信息孤岛不能带来速度和效率提高。当前信
8、息化的趋势是集中管理、集中存储、集中传输、集中交换,带来信息化的集中效应,这种集中效应表现在数据中心的兴起(如图 1 所示)。图 1 信息集中化的趋势,需要数据中心承载1 数据中心的物理模型数据中心的物理模型数据中心的作用与目的是完成信息的集中管理、集中存储、集中传输、集中交换,从而实现信息集中效益。在数据中心中,存在两个层面的平台:网络平台和动力平台(如图 2 所示)。/图 2 数据中心(DC)物理模型的定义2 数据中心的级别与分类:数据中心的级别与分类:根据美国 TIA 942 标准与 Uptime Institute 的定义,将数据中心的可用性等级分为四级(如表 1 所示):表 1我国新
9、制定的电子信息机房设计规范GB 50174-2008,将电子信息机房定义为 A、B、C 三类,其中 A 类要求最高(如表 2 所示)。表 2按机房的规模,可以分为超大型数据中心、大型数据中心、中型数据中心和小型数据中心等。 超大型数据中心,通常面积大于 2000m2,服务器机柜数量大于 1000 个; 大型数据中心,通常介于 8002000m2,服务器机柜数量 2001000 个; 中型数据中心,面积为 200800m2,机柜数量为 50200 个; 小型数据中心,面积为 30200m2,机柜数量为 1050 个; 无专门场所的服务器/交换机机柜应用等。以上规模划分是实际工作中的大致划分方法,
10、并没有严格的划分标准与参照指标体系。划分的目的也仅仅是便于数据中心的规划、设计与建设等。本文专门针对中型数据中心机房,探讨相关规划、设计与建设的标准、方法和实践。/3.1 机房选址机房选址我国电子信息机房设计规范GB 50174-2008 对机房选址提出了要求,综合美国数据中心标准 TIA 942-2005,对数据中心选址可以参考以上标准。实际工作中,对于中型数据中心机房的选址,用户通常选择与办公大楼等设施在一起,便于管理与维护。对于办公大楼来说,需要重点考虑以下内容:(1)大楼的电力是否足够给数据中心使用。办公大楼在设计与建设的时候,主要面向人员办公需要,属于轻载荷的供电设计。而数据中心的设
11、备供电量要求巨大,这样的重载荷设施放入办公大楼,常常会引起供电系统容量严重不足。无论是供电、亦或是制冷,都是对原有办公大楼用电容量的巨大挑战。(2)是否有足够的空间,放置机房空调的室外机系统。办公大楼寸土寸金,面积利用率很高。而数据中心的机房需要恒温恒湿的机房专用系统,365 天24 小时的不间断运行。机房专用空调如果采用直接制冷制式(DX),需要足够多的空间安装空调室外机。如果采用冷冻水系统,需要专门的 365 天24 小时运行的冷冻机组,而不能与大楼的中央空调系统混用。(3)机房层高是否足够?办公大楼的层高为民用建筑设计,层高通常为 2.83.2m。而数据中心需要安装静电地板,顶部吊顶。最
12、佳层高(无障碍物)应该大于 3.2m。(4)是否有足够容量的载货电梯?通常的办公大楼载货电梯尺寸小、载荷低。而数据中心需要的 UPS 电源、机房空调等设备,都是大尺寸超重型设备。如果电梯不能运输,势必导致运输成本剧烈增加。(5)在办公大楼设置数据中心,因为租金高昂、场地有限、供电不足,将严重限制数据中心的规模和安全级别。3.2 规划与设计规划与设计中型数据中心机房的规划与设计,其需求源头来自于用户对服务器、软件系统的规划与需求。规划分为部分,包括容量规划(密度规划)、供电系统规划、制冷系统规划、网络规划等。容量规划:容量是指中型数据中心机房的初期、终期的服务器等 IT 设备数量、或者面积。容量
13、规划可以基于两个方面考虑,(1)数据中心机房的机柜数量平均每机柜服务器数量。在采用普通地板送风制冷方式下,每个机柜的热密度为 35kw/rack,超过这个热密度就必须采用高热密度的制冷解决方案(如图 3 所示)。图 3 传统开放式机柜+地板下送风制冷(2)机房的电力供应。当机房的供电系统(市电+发电机)容量确定之后,可以计算出服务器的总功率。比如发电机最大容量为 500kva,那么根据机房的能效 PUE 值(按 2.0 考虑),得出机房最大承载服务器容量为 250kva(如图 4 所示)。/PUE 能量使用效率的定义: Power Usage Effectiveness。图 4 PUE 指标曲
14、线3.3 供电系统的规划与设计供电系统的规划与设计当中型数据中心机房的最大容量确定后,用户可以根据预算、机房重要程度,结合电子计算机机房设计规范GB 50174-2008 和美国 TIA 942-2005 的标准,确定供电系统与制冷系统。对于供电系统,包括从市电、发电机到配电、UPS、输出配电、服务器电源管理系统(列头柜)、机柜 PDU 等一系列环节(如图 5 所示)。图 5 数据中心供电系统示意图上述标准列出了 N、N+1、2N、2(N+1)等冗余方式。在中型数据中心机房的市电、发电机等系统,用户可以根据实际情况选择 N+1 或者 2N 系/统。而 UPS 供电系统,建议用户采用 2N 或者
15、 2(N+1)方式,确保供电可靠性(如图 6、7所示)。图 6 2N 式供电系统图 7 2(N+1)式供电系统用户选择 UPS 时,建议采用高频式 UPS,因为采用高频 IGBT 整流+无隔离变压器式设计,输入功率因数高、输入电流谐波小、功率密度高等特点。同时因为 UPS 占地面积小重量小,搬运方便。UPS 的电池容量建议根据市电与发电机系统配置,通常为 30 分钟左右。一般不建议超过2 小时的电池配置,重量大、成本高,投资不经济。在 UPS 之后,需安装服务器电源管理系统 SPM(又叫列头柜),为服务器机柜提供配电与保护。为提供服务器电源的配电可靠性,建议每一个配电回路都采用监控与管理系统,
16、监控每一路回路的电流、电压、功率、功率因数、谐波、电量等参数,实现配电的安全管理和成本的细致化管理(如图 8 所示)。/3.4 制冷系统规划与设计制冷系统规划与设计制冷系统是机房另外一个关键的基础设施。在中型数据中心机房,制冷系统设计包括:地板下送风系统、服务器机柜、机房专用空调等。按照机房节能设计实践和标准,通常采用地板下送风、机柜布置按冷热通道方式,是制冷效率比较高的设计方式(如图 9 所示)。图 9 地板下送风+冷热通道设计机房的服务器机柜也是制冷的关键之一。在很多运行的机房中,不少用户对机柜不重视,通常采购一些廉价服务器机柜。而这样的机柜必然带来通风面积小、服务器发热等问题。TIA 9
17、42 标准规定机柜的通风面积比通孔率大于 50%。而当服务器的热密度达到 4kw 左右是,建议用户采用通孔率大于 70%的服务器机柜,确保服务器等 IT 设备通风量、风速正常。此外,为了冷热通道隔离,建议使用挡板,将服务器机柜上空闲的 U 空间挡住,减少冷空气与热空气的无效热交换。进一步的节能设计包括完全封闭的冷通道,实现冷空气与热空气的完全隔离。当然这样封闭式冷通道(或热通道设计),必须符合消防防火等规范(如图 10 所示)。/考虑到投资成本、运营成本、维护成本等,建议采用风冷式机房专用空调(DX 式)。而水冷或者冷冻水式机房专用空调不适合于在中型机房中使用与推广(如 11 所示)。图 11
18、 风冷式机房专用空调(DX 式)风冷式机房专用空调,按照上述标准,采用 N+1(2 或 3)即可实现制冷系统较高的可靠性。在空调的供电上采取分组供电方式,避免单一供电回路导致的单点故障。3.5 监控系统的规划与设计监控系统的规划与设计中型数据中心机房的安全与运营监控管理是用户关注的核心内容之一。而这些数据中心机房通常采用无人值守工作模式,机房的安全与运营监控是无人值守的重要手段和工具。它包括:机房视频监控系统。视频监控实现机房 365 天24 小时监控下运行,任何故意或无意的破坏都将记录在案。机房设备与环境的监控系统。根据标准,必须实时监控机房的温度、湿度、水浸、供电系统工作参数与状态、空调系
19、统工作参数与状态等,并在故障下主动提示用户采取措施,及时修复故障,确保机房安全稳定运行(如图 12 所示)。/图 12 数据中心的机房监控系统特别需要说明的是,中型数据中心机房通常不会配置电源专业人员,日常的管理与维护工作通常外包给专业类公司,IT 用户仅仅督导与监控系统的运营维护工作。而在众多设备与环境中,电池的监控是比较容易忽视的环节。但是电池恰恰又是系统最后的安全保障,所以对电池的监控建议采用单体电压、单体内阻监控系统,实时在线监控电池的电压与阻抗变化,及时找出弱化电池与系统短木板。TIA 942 和 GB 50174-2008 也建议在最重要一级机房,实现对电池组中每一个电池单体电压、
20、单体阻抗的监控。确保系统中所有环节都处于监控之下,实现系统的安全可靠运行。电池单体电压与内阻监控系统图(如图 13 所示)。图 13 电池单体电压、内阻监控示意图4 中型数据中心机房的建设与概念误区中型数据中心机房的建设与概念误区4.1 关于机房的负载计算与热密度关于机房的负载计算与热密度/IT 用户在规划或者设计机房时,普遍遇到的问题就是服务器负载计算问题。购买的服务器,根据厂家给出的功耗累计,往往会得出一个很大的累计功率。可是如果按照这样的累计功率配置供电系统、空调系统,将会出现巨大的投资浪费。如何才能得出比较可靠的负载功率呢?建议 IT 用户对服务器厂家的功耗参数刨根寻底,一定要厂家给出
21、所需配置下实际功率需求。比如 IBM 某型号服务器 2008 年功耗为(如表 3 所示):表 3:表 3 中,单机最大功耗与配置密切相关,而这个数据远远小于铭牌功率,当配置确定后,采用服务器的实际运行功率计算,才能避免供电系统、空调系统的巨大浪费。4.2 为了创新而使用水系统空调系统为了创新而使用水系统空调系统很多 IT 用户喜欢创新,在机房建设上根据部分厂商推荐,盲目采用水系统的空调。实际上水系统机房空调在中型数据中心机房并不能节能。首先,中型机房的热负荷是有限的,而小容量的冷冻机组的能效比,并不比风冷式空调高。如果采用大楼的冷冻机组,必然又出现在冬天大马拉小车的问题,效率低下。只有当机房规
22、模宏大,采用水系统机房空调才是节能的。其次,水系统机房空调容易导致系统的单点故障、单点瓶颈。按照标准,采用水系统时,强烈建议按照 2N 系统配置,而这样的配置在中型机房无疑是投资巨大、毫无积极性可言。第三,水系统的安装、维护成本很高。尤其是维护成本居高不下。因为水系统需用定期的换水维护,这样数据中心可能长时间停机问题。国内第一批使用水系统的大型银行数据中心,在建设新的数据中心时,纷纷弃用水系统,而改用风冷式机房空调系统。5 中型数据中心机房的建设实例中型数据中心机房的建设实例大部分的证券公司机房是典型的中型数据中心机房。随着 IT 技术的迅速发展,我国证券行业的交易与查询网络化、集中化,已处于
23、世界前列。某全国性券商因为办公室搬迁,需要在办公大楼内新建一个约 400m2 的数据中心(如图 14 所示)。/因为该券商的业务高速发展,对未来的负荷需求很大。但是机房位于中心区域的办公大楼上,大楼为数据中心提供的电力有限,仅为 500KVA(1000A),并且是三路电力合计,这为设计提出了很高的要求。在规划阶段,用户希望使用水系统空调,并安装高密度制冷解决方案。对于水系统,规划时候反复与用户交流,在 400 平方左右的机房安装水系统空调并不能带来太多效率提升,反而造成后续维护成本巨大。经过用户对部分水系统使用反馈调查,最终取消了水系统的计划,改用风冷系统式机房专用空调。此外,用户对负载反复确
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机房 综合布线 系统 结构设计
限制150内