近年来,随着互联网金融的快速发展,商业银行面临的挑战和竞争日益加剧,业务和应用快速转型的需求越来越高。在云计算、大数据等新技术的不断融入下,商业银行数据中心的处理容量和数据规模呈现指数增长态势:一方面是单个节点的计算性能不断提高,服务器的硬件参数纵向提升(Scale-Up);另一方面,大规模服务器集群不断涌现,设备数量呈现横向扩张(Scale-Out)态势。强大运算能力和海量数据处理的背后是快速攀升的电力需求,在传统“大集中”模式下形成的数据中心,其高能耗、高建设与低利用率、低使用效能的弊端越发显现,运营成本面临严峻考验。另外,全球节能减排的大趋势也让国家从监管层面对数据中心能耗和效率提出了更高标准要求。
在此背景下,建设新一代绿色数据中心,打造低碳金融是商业银行未来发展的重要战略方向之一。数据中心应当在高可用、安全稳定等固有基因之外,更多的展现出低耗节能、按需供给、弹性伸缩、高效部署、智能管理等新的特性。
一、绿色数据中心关键性指标
在绿色数据中心标准制定方面,国际上,美国制定了“数据中心能源之星计划”和“联邦数据中心整合计划”,欧盟实施了“数据中心能效行为准则”。国内,三部委在2015年联合出台《国家绿色数据中心试点工作方案》,意在加速形成具有自主知识产权的绿色数据中心技术体系,构建数据中心节能环保监测体系,确立绿色数据中心评价标准。从监管层的技术标准来看,绿色数据中心的“绿色”通常体现在整体建筑、机房空调、UPS供配电、服务器、存储设备、网络设备以及应用系统等IT基础设施具备的节能环保、高可靠性和合理性上。绿色数据中心的关键性指标有:
1. 电源利用效率(PUE)
PUE = 数据中心总耗电功率 / IT设备耗电功率
PUE(Power Usage Effectiveness)是由绿格联盟提出的目前国际上最广泛采用的数据中心节能效果评价指标。PUE值越大,表明数据中心内用于确保IT设备安装运行所配套的动力和环境保障基础设备(高低压系统、UPS系统、空调新风系统、照明系统等)所消耗的能耗越大;PUE 值越接近1,表示数据中心的绿色化程度越高。
2. IT设备能效比
IT设备能效比 = IT设备每秒数据吞吐量 / IT设备功耗
IT设备能效比用于评价数据中心电能的数据处理效率,其中,IT设备主要指服务器、存储、网络设备等。数据中心IT设备能效比越高,表明IT设备在消耗等量电能条件下所能处理、存储和交换的数据量越大。较高的IT设备能效比可以大幅度降低与数据中心配套的UPS和空调系统的容量及功耗,从而达到节省投资和节能减排的目的。
二、商业银行数据中心“绿色化”建设思路
商业银行新一代绿色数据中心应当以降低PUE值和提高IT设备能效比为目标,解决高能耗、高建设与低利用率、低使用效能的问题。
目前,大型商业银行数据中心能耗成本普遍占数据中心总体运营成本的50%左右,高能耗问题显著影响数据中心的整体拥有成本(total cost of ownership, TCO),从实际经验来看,数据中心能源效能的确没有得到充分利用。例如,传统数据中心为满足峰值负载的需要,通常以远高于平时功耗需求的标准来配置服务器硬件和供电设备,即“过供给”。由于数据中心通常很少运行在峰值负荷,过供给事实上造成了资源的浪费。又如,由于传统数据中心的“两地三中心”架构以及银行核心应用的集中式架构,为确保灾备切换后对业务系统的支撑能力,灾备中心需要进行较高的设备资源配置,而这些设备往往面临长期空置的窘境,使得灾备中心的IT资源无法得到有效利用。
针对高能耗,有两种思路。一种方面,数据中心可以在采购环节选择低功耗的硬件设备,并采用高密度排布。另一方面,数据中心采用整合架构,降低整体能耗。针对高建设与运营成本,数据中心可以使用模块化方法进行机房建设与扩容,并持续进行精细化的基础设施环境管理。针对低利用率,数据中心可以通过虚拟化技术将服务器、存储、网络、安全等物理设备池化,实现按需供给。
针对低使用效能,可以构建基于双活模式的云数据中心,以服务目录方式提供高效的资源交付能力,将云灾备中心IT资源充分利用,提高基础设施的安全性和可靠性。具体来说,商业银行建设绿色数据中心可以按照提升硬件节能、模块化建设、“云化”资源池建设三个方面展开。
(一)提升硬件效能
IT硬件设备节能就是数据中心使用的服务器、存储、网络设备等自身的节能。IT硬件设备建议选用通过80Plus认证的高效率电源。80Plus节能标准要求服务器的电源转换效率在20%、50%和100%负载的情况下均不低于80%的使用效能,且满负载时功率因数不低于0.9。
对于服务器硬件,数据中心可以考虑选用超融合一体化设备。一是整体的计算和存储密度较高;二是资源的生命周期内管理高效,可以根据具体资源的利用率情况实现快速的上线下线;三是要实现从粗放式向精细化资源管理的转型,譬如各银行的纪念币销售预约系统,只有在纪念币发售时才有很高的压力,平时资源利用率极低,完全可以通过精细化管理流程和配套工具平台实现“一键”资源扩容和回收。
此外,除了分布式解决方案外,数据中心还可以考虑采用新的服务器类型如IBM LinuxONE平台,将相关的服务器进行整合,做成集中式方案,利用LinuxONE强大的“Scale-Up/Out”虚拟化、灵活配置能力提供便捷高效的计算能力。
(二)机房模块化建设
由于传统数据中心建设周期长、能效不高、架构复杂、灵活性和扩展性有限等弊端,模块化数据中心成为一个重要的发展方向。模块化数据中心是指每个模块具有独立的功能、统一的输入输出接口,不同区域的模块可以互相备份,通过相关模块的排列组合形成一个完整的数据中心。在设计方法上,可以在空间布局上采用模块化设计,同时数据中心各功能系统也采用模块化设计,在建造时分模块、分楼层、分期建设。在产品形式上,主要有模块化产品和微模块(Micro Module),其中,模块化产品以模块化UPS、模块化精密空调、模块化布线为代表;微模块则以微模块机房为典型:
1. 模块化UPS
模块化UPS有着在线扩容、提供冗余、在线维修维护等优势,能采用N+X并机模式获得冗余,可节约投资成本和维护成本,占地面积小。模块化UPS的每一个模块平均分配所有负载,当其中一个发生故障时,其他模块可再次均分该故障模块的负载,而故障模块可在不中断系统的情况下在线“热”更换。模块化精密空调、模块化布线的方式与之类似。
2. 微模块机房
微模块机房以若干机架为单位,包括制冷模块、供配电模块以及网络、布线、监控、消防在内的独立运行单元,微模块全部组件可灵活拆卸,快速组装。一体化柜式机房以机柜为单元,将供配电系统、散热系统、制冷系统、布线系统以及监控管理系统等各个管理单元制定独立的模块,集成到机柜平台上,为信息系统建设提供了完整的基础架构解决方案。对于具有若干个服务器和网络机柜的使用场合,可以将动力配电、模块化UPS、行级精密空调和监控系统、消防系统、漏水检测系统等整合。微模块机房具有防尘、节能、省空间、减噪、屏蔽电磁辐射、人工智能等优点。
商业银行数据中心可以采用在传统机房中实施模块化的思路,可以以一个或几个机柜为单位,也可以以若干行机柜组成的机柜集群POD为单位进行部署。通过实际应用,模块化数据中心除了具有可扩展、可移植、可替换以及提高故障修复质量的优点外,还可以通过集中管理来控制能耗,提高设备利用率。同时,由于优化了冷热通道封闭机架内电源线与数据线缆路径、服务器部署安装、模块内气流组织等机构,模块化数据中心的PUE值也得到了极大的降低。
(三)“云化”资源池建设
传统数据中心的物理服务器应用部署模式,其资源平均利用率在10%~20%之间,存在着极大的资源浪费。应运而生的虚拟化技术,将服务器物理资源抽象成逻辑资源,使一台服务器变成几台至几十台相互隔离的虚拟服务器,使CPU、内存、磁盘、I/O等硬件资源不再受限于物理上的界限,变成可以动态管理的“资源池”,从而提高资源利用率,简化系统管理。
另一类虚拟化技术基于大型主机平台,如IBM 的LinuxONE,依托于大型机最高等级的可靠性、可用性和安全性特点,利用高虚拟化率实现资源的高效利用。
虚拟化资源池的建设根据应用系统增速、IT规划定期宏观考虑,可以缓解业务需求时效性高与底层基础设施建设相对缓慢之间的矛盾,提高IT资源交付与回收效率,使IT对业务变化更敏捷。此外,设备故障时,虚拟机可自动漂移至相关设备并对外正常提供服务,这种多集群并行承担工作负载的冗余设计和动态迁移技术,提高了基础设施的可靠性,间接上降低了IT资源占用的物理空间,缩减了建设成本和能耗。
从技术架构看,目前商业银行数据中心大多采用“烟囱式”的应用开发部署模式,无论是机房基础设施,还是计算、存储、网络等资源都采用专业化的部署管理,系统上线、应用版本投产、数据备份等都采用按系统“一事一议”的方式进行,这种系统与应用紧耦合的维护与变更流程较为复杂。当前数据中心的资源虚拟化已经向纵深发展,云数据中心呼之欲出,综合考虑多个数据中心的资源均衡、运行效率和用户体验,以异构平台融合、资源管理和服务管理为核心,实现大二层互联,建立跨数据中心的云操作系统,实现资源的统一调度和服务的自动化、智能化。一个集约、高效、可靠的绿色云数据中心具有如下优势:
1. 混合架构与资源统一管理
由于银行应用架构集中式与分布式并存的特点,云数据中心应当既全面支持超融合一体化的虚拟化,又同时能够纳管传统物理服务器、光纤存储、网络与安全设备等传统资源,即异构的资源池可由云管理平台统一调度,从而实现基础设施的自动化交付和应用服务的快速发布。
2. 服务导向的高弹性与自动化
云服务是云平台将IT能力以面向用户的服务形式进行包装和集成,并通过云管理平台提供的服务,具有通用性和覆盖全生命周期的特点。云服务除了IaaS层面的快速交付、资源动态伸缩外,还应当涵盖PaaS层面的中间件与运行环境快速交付、应用灵活部署、细粒度监控、自动化运维等功能。
依据同业实践经验,分步骤、循序渐进的银行系统上云,通常按照两条主线进行:一是技术上从底层至上层,按照基础设施池化、资源云化交付、应用云化交付、服务云化交付的步骤逐步实施;二是出于稳健审慎的考虑,从外围系统到核心系统、从测试环境到生产环境逐步迁移,确保平稳落地。
三、结语
当前,银行各类业务对数据中心系统的依赖性越来越高,构建节能、稳定、高效的绿色数据中心是打造现代银行的重要科技支撑。设计和构建绿色数据中心是一项复杂而专业的系统工程,首先,必须具有明确的IT规划方案,尤其是节能方案,以最终确定数据中心IT设备对空间与电力等基础资源的总体需求;其次,需要深入考虑如何有效运用各种技术手段降低PUE值和提高IT设备能效比。应用系统上线后,数据中心管理和维护工作同等重要,需要建立一套有效的绿色管理体系,整合数据中心各类资源,结合ITIL最佳实践,将人员、技术和管理流程有效地集合在一起,改变数据中心以往的被动支持模式,提高数据中心的可管理性、可伸缩性和可靠性,提升数据中心的管理内涵,从而有效地支持商业银行业务快速发展。
来源: AIX专家俱乐部
专注于数据中心基础设施运维与运营管理,分享运行维护经验,分享数据中心行业发展趋势及新技术应用。
联系小编:wj2012bj
QQ交流群: 108888484
投稿邮箱:[email protected]
▲长按二维码"识别"关注