专栏名称: 数据中心运维管理
专注于数据中心基础设施运维与运营管理,分享运行维护经验,分享数据中心行业发展趋势及新技术应用。
目录
相关文章推荐
数据分析与开发  ·  悼念!清华大学计算机教授、《数据结构》编著者 ... ·  23 小时前  
数据中心运维管理  ·  阿里巴巴官方回应“河源云计算数据中心失火”, ... ·  3 天前  
数据中心运维管理  ·  数据中心日常运维解决方案 ·  4 天前  
数据中心运维管理  ·  数据中心日常运维工作中常用的节能措施 ·  5 天前  
51好读  ›  专栏  ›  数据中心运维管理

浅谈机房改造

数据中心运维管理  · 公众号  · 数据库  · 2017-03-15 08:18

正文

新的数据中心机房根据现有需求考虑5-10年的扩容,为数据中心的设备扩容预留一定的空间。以前建设的机房在面积过小、设备摆放不规则、无冗余的情况下进行改造,改造的内容包含线缆路由改造、精密空调系统改造、机柜改造、基础环境改造等。 



一、线路改造


线路改造包含强电线缆改造和弱电线缆改造。5年前的机房大部分都采用地板下走线,阻挡了空调的送风,改造时尽量让地板下的线槽安装方向与空调送风方向一致,在条件允许的情况下,把机房内强电、弱电线槽由下走线改为上走线,地板下空间作为空调静压箱。


      针对用户的不同,使用机房内网络的传输介质要求不同,当数据传输大时网络速度就越慢,对整个机房网络全部重新敷设是不现实的,但对机房内网络主干线进行改造是必要的。


       这里我们可以选择6A类布线系统,第一它的速度可迅速提升到一个新的高度,达到千兆网络,同时6 A类布线系统自身的质量特性就能屏蔽强电的回波损耗和干扰,可保证信道的整体性能长期处在最优状态。
 


二、空调系统改造


        建设机房时都考虑机房内设备运行环境的洁净度和湿温度等,但对于老机房,其空调考虑冗余较少,且随着机房内设备的增加,机房内的热负荷会越来越大,原有的空调设备已不能满足机房建设要求。改造主要考虑以下几个方面:


(1)精密空调冗余:重新核算机房内设备的热负荷,且根据设备发热量的大小及需要重新调整精密空调的位置,每个防护分区至少考虑一台整机备份,分区既有利于对设备的保护,也保证了机房精密空调的连续制冷效率。


 (2)冷热通道的建设:打破常规,将机柜采用“背靠背,面对面”的摆放,这样在两排机柜的正面之间的通道中间布置冷风出口,通道上方封堵,形成一个密闭的“冷通道”空气区,冷空气流经设备后形成热空气,排放到两排机柜背面中的“热通道”中,通过热通道上方布置的回风口回到空调系统,使整个机房气流、能量流动通畅,提高了机房精密空调的利用率,进一步提高了制冷效果。



三、机柜改造


 随着业务的发展,机房内原有线槽内已布满线缆,很多的线缆很难一一对应,为了实现新的需求,很多机房使用方通过在原有布线的基础上重新布线,这样机柜上的线缆就多了,而且杂乱。针对这种情况下的机柜改造,我们考虑如下:


        第一,机房内的网线部分与电话线部分分开布线,即左侧全部走网线,右侧全部走电话线,然后将线缆每个1.0m进行绑扎,防止线缆相互拉拽而产生损坏,这样可以有效地减少近端串扰。


        第二,规范布线,对出现氧化层或者卡头松弛的水晶头重新制作,这样可以有效减少网络通断故障的发生,更减少回波损耗造成的干扰。


       第三,清理废弃线缆,这样既可以节省网络资源,也便于机房管理人员进行控制。


        经过以上步骤处理,机柜就比较整齐、简洁,同时也方便机房管理人员查找线路,且减少物理层面间的网络信号干扰。

四、供电系统改造


      针对老机房设备的增加、空调升级改造等情况,与之相协调的配电系统也在改造范围内,特别对于有些不能停电的设备,其配电系统的改造更加重要。


       第一,根据用户的需求及设备的重要性,对主机房内的设备至少配置两路供电系统,当一路供电系统发生故障时能及时切换到备用电路,保证数据传输不中断。


       第二,对于断电后造成重大损失的机房设备,在考虑设置冗余UPS不间断电源外,还需要考虑柴油发电机,当供电系统运转正常,柴油发电机组处于待机状态,一旦两路市电都中断时,系统能马上切换到柴油发电机:市电恢复时,机组自动退出运行。


       在以上改造的基础上也应该注意一些细节,因为细节也体现着机房的安全,也能体现两点;所以我们改造时必须保持清醒的头脑,把问题处理在细节处和萌芽状态中。


相关文章


案例 | 网络机房排风改造

专注于数据中心基础设施运维与运营管理,分享运行维护经验,分享数据中心行业发展趋势及新技术应用。

合作交流:wj2012bj

QQ交流群: 108888484

投稿邮箱:[email protected]


数据中心运维管理

ID:wj-yunwei


▲长按二维码"识别"关注