中国数据中心发展蓝皮书(2020)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

金融云数据中心基础设施的构建

查劲松

为了应对增长迅猛的金融线上业务,以及金融自主可控的全面提速给金融信息系统带来的挑战,近年来,金融行业数据中心的建设特别是总行/总部级数据中心的建设纷纷朝着大规模的云数据中心的方向发展。本文将从金融信息系统今后的发展趋势着手,简要介绍金融云数据中心基础设施构建的主要思路,以供广大数据中心建设者、运维者参考或借鉴。

一、金融云数据中心建设的必要性

(一)金融信息系统面临的变化与挑战

目前,金融信息系统所面临的变化与挑战至少来自三个方面,即快速增长的线上业务、剧烈动荡的金融市场,以及错综复杂的国际关系。

首先,金融线上交易行为的一种很重要的特点就是“随时、随地、随心”,这种特点导致金融交易量的变化从原有的具备一定规律的可预测波峰、波谷向突发性、无规律、难预测转变,加剧了信息系统资源统筹调度的难度。其次,动荡不安的金融市场直接导致金融信息系统在金融“黑天鹅”频发、突发情况下,面临突发的高并发量业务压力、高频的资源调度和部署压力,以及安全运行压力等。最后,国际形势波谲云诡,中美关系的不确定性导致金融数据中心自主运维压力更加凸显。

(二)金融数据中心的能力要求

金融信息系统始终肩负着保障我国金融市场安全、稳定、高效、便捷的职责,因此,作为金融信息系统基石的金融数据中心在面对上述三个方面带来的变化和挑战时必须不断提升安全运行、灵活扩展、快速部署和高效运维的能力,如图1所示。

1.安全运行能力

金融数据中心的安全运行能力主要体现在可用性、业务连续性、灾备体系及自主可控等几个方面。突发公共事件,如新冠肺炎疫情,对金融数据中心的安全运行带来了严峻的考验。促使金融行业一方面需要进一步研究信息系统架构,以及部署方式,以进一步提升系统的可用性,另一方面势必需要对数据中心的灾备体系建设、业务连续性保障建设及自主可控方面做出进一步的发展规划。

2.灵活扩展能力

金融数据中心是否具备灵活扩展能力,直接表现在资源是否能够按需分配和弹性伸缩。随着金融客户线上交易行为的急剧增长,以及线上交易场景的日趋丰富,进一步要求金融数据中心对于资源要做到按需分配,才能满足突发、高并发、无规律、难预测的交易量变化。另外,资源的弹性伸缩和资源是否能有效利用也将对用户体验带来直接的影响。

图1 金融数据中心能力

3.快速部署能力

在金融数据中心建设发展过程中,不断增长的业务需求与有限的资源之间的矛盾一直存在,除有效利用资源外,资源扩充也是解决该矛盾的有效方法之一,但是在扩充资源时,如何做到设备部署,如何跟上业务需求增长的步伐是金融数据中心目前面临的重点问题。

4.高效运维能力

运行维护是数据中心最主要的日常生产活动,运维人员不仅面临业务规模不断扩大、业务种类日趋繁杂、运行保障要求日益增高的业务态势,还面临主机/小机下移、分布式部署、集群部署等带来信息系统日趋复杂的情况。在设备数量、系统规模出现几何级数的增长后,故障定位、故障处理、监控事件的处置等给运维带来了极大的压力,如何做到高效运维,以及解决有限的人力资源与运维工作量之间的矛盾是金融数据中心亟待解决的问题。

(三)金融数据中心的发展态势

1.信息系统架构从集中式向分布式演进

集中式架构和分布式架构相比,虽然在架构复杂度、运维复杂度和一致性方面具备一定优势,但是在资源的扩展性、灵活性及可用性方面却不如分布式架构。由于缺乏灵活的资源调配能力,传统的集中式架构已很难满足当前复杂多变的业务发展需求。

分布式架构虽然在架构和运维方面相对更加复杂,但按需分配、弹性伸缩和灵活的资源调配能力却是其优势。集中式架构与分布式架构简要对比如表1所示。

表1 集中式架构与分布式架构简要对比

由于分布式架构是将数据存放在不同的节点,根据CAP理论,即对于任何一个分布式计算系统,不可能同时满足以下三个特性:一致性(Consistency)、可用性(Availability)和分区容忍性(Partition Tolerance),而只能同时满足其中两项。其中,一致性通常指数据一致性,即要求所有节点数据保持一致;可用性即要求每个节点在发生故障时都可以提供服务;分区容忍性通常指各个节点之间的网络通信性能,即分布式系统在发生网络分区故障时,仍然需要保证对外提供一致性和可用性的服务,除非整个网络都发生故障。

因此,在分布式架构各节点间网络通信延迟或抖动等无法避免的情况下,在一致性和可用性之间必然要做出选择。数据一致性按要求可分为强一致性、弱一致性,如果要保障高可用性和业务连续性,数据强一致性则很难达到,但是弱一致性又无法满足要求,因此一般就折中采用最终一致性这种方式,即各个节点的数据被应用修改后,不要求每个节点都对数据在同一时刻更新,只要求将更新后的数据发布到整个系统中,这样可在保证系统高可用性的同时实现数据的最终一致性。

对于金融行业来说,不同的金融业务对数据的一致性要求不尽相同,对于除必须保持数据强一致性的核心应用(如总账、分户账等)之外的其他的对数据没有强一致性要求的应用,均可对数据采用最终一致性这种处理方式。因此,金融信息系统就可将核心应用继续保持集中式架构,而对于其他非核心应用则采用分布式架构,即“集中+分布”融合方式,如图2所示。

图2 “集中+分布”融合方式

这种方式既能满足金融行业在账户上对数据强一致性的要求,又能利用分布式架构来解决高可用性、资源效率等问题,以处理大规模、多渠道、高并发的海量客户请求和庞大的运算任务,以满足多金融交易融合的复杂的金融业务。

虽然分布式架构受CAP理论的一些限制,而且相比传统的集中式架构在技术层面和运维层面更加复杂,但是只有分布式云平台灵活快速的资源调配、高效的数据存储、高性能的海量数据计算等才能支撑今后复杂多变的金融业务和金融交易,因此分布式架构是金融信息系统架构演进的必然选择。

2.灾备体系从“两地三中心”迈向“多地多活”

RTO(Recovery Time Object,恢复时间目标)和RPO(Recovery Point Object,恢复点目标)是衡量信息系统容灾能力的两项重要指标。RTO是指灾难发生后,从IT系统宕机导致业务中断开始,到业务恢复正常之间的时间段。RPO则是指数据恢复的时间点,即在灾难发生后,容灾系统能把数据恢复到灾难发生前时间点的数据,用来表示灾难发生后会丢失多少时间段的生产数据,也就是业务能容忍的最大的数据损失。例如,某IT系统容灾指标要求RTO<30分钟,RPO<15分钟。假设该IT系统在上午10:00发生宕机造成业务中断,则必须在30分钟内让业务恢复正常运行,也就是说必须在上午10:30之前恢复业务,在恢复业务的同时,数据至少应恢复至上午9:45的数据,而9:45至10:00之间15分钟的数据就可能存在损失,如图3所示。

图3 RTO与RPO

目前,金融行业为了业务连续性保障,均普遍采用“两地三中心”的模式建设灾备体系。“两地三中心”是指“生产中心+同城备份中心+异地灾备中心”的容灾模式,虽然这种模式保障了生产中心同城的高可用性,以及异地的灾难恢复,但是在这种模式下,多个数据中心之间存在着主备关系,因而存在针对灾难的响应与切换周期相对较长,RTO与RPO无法实现业务零中断,以及资源利用率低下等缺点。为了缩短RTO和RPO,金融行业在“两地三中心”的基础上,又发展了“同城双活+异地灾备”容灾模式,在此种模式下,虽然可以将同城灾备切换的RTO缩短至分钟级,但是其灾备体系架构仍然是“两地三中心”的模式,当发生全国性大范围的突发公共事件时,“两地三中心”的模式必然要面临业务连续性的极大挑战。

近几年,随着技术的进步,金融行业开始探索和研究基于分布式存储、分布式数据库、分布式网络等技术,以及以分布式架构为基础的“多地多活”灾备体系。在“多地多活”模式下,各数据中心虽然物理分布在不同的地域,但整个逻辑统一。多个数据中心之间实现有机结合与资源共享,跨多中心进行资源调配,各中心以并行方式一方面为业务访问提供服务,实现了对资源的有效利用;另一方面在一个数据中心发生故障或灾难的情况下,其他数据中心可以正常运行并对关键业务或全部业务实现接管,达到互为备份的效果,RTO和RPO可以达到秒级甚至趋近于零,真正实现用户对故障的无感知。因此,对于全国性大范围的突发公共事件,“多地多活”相对“两地三中心”而言更有优势。

3.自主可控全面提速,国产化进程势必加快

金融行业信息系统的自主可控事关国家安全和社会稳定,由于历史原因,我国金融行业信息系统多年来在硬件、存储、操作系统、数据库、中间件等核心设备及组件上均采用诸如IBM、HP、EMC、Orcale、CISCO等国外公司的产品,这些关键设备、组件的升级和维护均需要依赖外部,在当前国际形势日益严峻的情况下,外部关键技术的封锁可能对金融行业业务连续性带来不良影响,因此持续提升自主可控能力、加速国产化进程,是确保金融安全的重要的手段。

为打破国外产品在核心设备、数据库等方面的垄断,早在2014年,银行业就逐步开始了国产化替代工作。一方面通过购买国产品牌服务器,以及中低端网络设备来满足国产化率的要求,另一方面持续推进主机下移、小机下移,以减少对外部的技术依赖。随着信息系统架构的转型,以及国产分布式存储、国产分布式数据库等技术的发展,金融数据中心在技术层面真正达到自主可控指日可待。

另外,除IT设备、数据库、核心网络采用国产品牌外,不断提升自主运维的能力也是金融行业自主可控的一个重要方面。只有努力提升运维人员自身的专业技能,加强知识储备,全面提升自主实施的能力,才能尽最大可能降低对外部厂商的技术依赖。

4.智能运维将加速落地

早期运维工作主要依靠运维人员个人的知识、技能和经验,但随着信息系统日趋复杂,设备越来越多,如果完全依赖人工操作的话,运维效率无法提升,并且很难控制操作风险,因此,可将部分人工的操作步骤标准化和固化之后利用如CMDB、DevOps等自动化工具来实现批量化、自动化运维。虽然自动化运维的出现极大地减少了人力成本,降低了操作风险,提高了运维效率,但是自动化运维的本质依然是人与工具相结合的模式,其运维决策仍然取决于运维人员的知识、技能和经验,因此自动化运维对于多中心、大规模、高复杂性的系统难以提升运维质量。

Gartner在2016年提出了智能运维(Artificial Intelligence for IT Operations,AIOps)的概念,就是将人工智能融入运维系统,以大数据和机器学习为基础,对海量的日志数据、业务数据、系统运行数据进行学习和分析,并得出有效的运维决策,然后通过自动化工具以实现对系统的整体运维。智能运维AIOps模型如图4所示。因此,智能运维不仅具备运维自动化的特点,同时还具备运维无人化和运维远程化的特点。

当新冠肺炎疫情这类突发性公共卫生事件发生时,给数据中心的运维带来的最直接的影响就是运维人员严重不足。要从根本上解决这一问题,也只有通过智能运维的落地来实现。当信息系统向分布式架构转型,当灾备体系迈向“多地多活”时,运维工作必然需要从自动化走向智能化,而分布式架构的云平台技术也为具备自动化、无人化和远程运维特点的智能化运维提供了技术保障。

日益丰富的金融业务形态,以及错综复杂的国际形势,再加上动荡不安的金融市场,对金融数据中心在安全运行、灵活扩展、快速部署和高效运维四个方面提出了更高的能力要求,而要持续提升这四个方面的能力,信息系统架构向分布式演进是基础,只有在分布式的信息系统架构下,“多地多活”、自主可控、智能运维才能得以逐步实现。伴随着分布式云平台技术的日趋成熟,金融行业纷纷通过分布式云平台技术来实现信息系统架构从集中式向“集中+分布式”演进,而要真正发挥分布式云平台技术的特点和优势,金融云数据中心的建设则是基础和保障。

图4 智能运维AIOps模型

二、金融云数据中心基础设施的构建原则

金融云数据中心基础设施所承载的是基于其上的分布式云平台,因此基础设施首先必须适应云平台的特点。同时,云平台技术也在不断地进步,因此基础设施还需要在全生命周期内适应云平台技术的发展。

(一)云平台的主要特点

云平台包括IaaS层、PaaS层和SaaS层。其中,IaaS层包含的对象主要有各种服务器、网络设备,以及负载均衡、加密机等IT设备硬件资源,主要通过虚拟化技术将IT设备的各类基础资源进行整合后提供给各类业务和应用使用;PaaS层则在IaaS层基础之上,包括数据库、Web服务、资源管理等中间件,主要为各类应用提供运行环境,并为用户提供开发平台;SaaS层即应用层,面向用户提供各种应用程序,用户可通过网络来访问各类应用。云平台架构如图5所示。

从资源角度出发,云平台具备三个主要特点。

(1)资源池化。资源池化即通过虚拟化技术将IT设备的CPU、内存、硬盘、网络等基础资源整合起来提供给各种业务系统使用,包括计算资源、存储资源和网络资源等。

(2)按需分配。资源池化以后,在统一的资源管理平台下,根据应用需求或用户访问需求动态地对资源进行自动分配和调度,即资源按需分配。

(3)具有伸缩性。除了能够按需分配,其各项资源的扩展和回收也是资源池的主要特性,因而高度的伸缩性也是云平台的主要特点之一。

图5 云平台架构

(二)金融云数据中心基础设施建设需要遵循的原则

金融云数据中心基础设施建设应跟上云平台技术发展的脚步,必须适应云平台的特点。同时,金融云数据中心基础设施相对于传统数据中心的基础设施来说,由于所承载的信息系统架构和技术不同,也就导致了不仅IT设备的种类不同(云中心以x86服务器为主,而传统数据中心则包括主机、小机、x86服务器、存储等),在对基础设施的快速部署和灵活扩展的要求上也有所不同。因此,在建设时应遵循以下四项原则。

(1)合规性。金融云数据中心基础设施建设必须遵从监管要求、数据中心建设相关国家标准和金融行业标准,以及网络安全等级保护的相关要求。

(2)可用性。对于金融云数据中心来说,其基础设施的可用性要求不仅体现在供配电系统、制冷系统等基础架构的高可用性上,还由于IaaS平台的计算资源、存储资源、网络资源均采用分布式方式部署在不同的机柜中,因此“机柜级”高可用性应是金融云数据中心基础设施关注的重点之一。

(3)能够快速部署、灵活扩展。金融云数据中心主要承担网络金融、手机银行、风险管理、大数据分析等平台应用,其系统测试、上线投产、版本更新等相对频繁,因而基础设施在建设时就需要充分考虑全生命周期内的快速部署和灵活扩展,从而满足云平台的资源扩展和灵活调配需求。

(4)前瞻性。金融云数据中心一般规模较大,设备众多,运维更加复杂。因此在基础设施建设时,应充分考虑今后如物联网、人工智能等新技术、新应用、新产品的落地和适配。

三、金融云数据中心基础设施的构建布局

(一)机柜部署

基于集中式IT系统架构的传统数据中心,由于其IT系统架构呈现烟囱式的特征,基础设施与IT设备是松散型的关系,虽然强调基础设施的可靠、安全和高标准,但与IT系统相互割裂,其基础设施构建往往由外向内,即在土建完成以后再根据主机房面积大小对机柜的布局进行规划,往往不会过多地考虑同一列或同一区域机柜的横向扩展,其机柜数量的确定更多依赖已建成的主机房面积大小。

对于分布式的云数据中心,从机柜级高可用性的角度出发,IaaS平台中的计算资源、存储资源和网络资源特别是存储资源的宿主机均需要部署于不同的机柜。同时,IaaS平台在横向扩展时一般均按照最小集群单元即POD进行扩展,也就是说,云平台计算资源和存储资源按照一个POD为一个单位进行扩展。

因此,单个POD所包含的机柜数量将是机柜布局的重点考虑因素,在规划机柜数量时宜按照POD所含机柜数量进行规划。

假设IaaS平台采用计算资源与存储资源分离式部署方案,且分布式数据存储按照三副本方式(可用性为99.999 99%)进行,则单个POD包含3个机柜,每个机柜内部署多台计算节点和多台存储节点,每扩容2个POD增加一个计算集群,每扩容2个POD增加一个存储资源池。因此,对于上述IaaS平台部署方案,为满足后续IaaS平台的横向平滑扩展,则每列机柜数量宜按照3的倍数进行规划。

金融云数据中心基础设施在构建时建议按照从内向外的原则进行,即在获得IaaS平台横向扩展的最小颗粒度后,计算单机柜服务器数量、功率密度及单列机柜数量,从而确定主机房面积、配电容量、制冷容量等。

(二)机房巡检机器人适配

随着数据中心规模的增大,人工巡检是基础设施运维的一个难点,相较于人工巡检,巡检机器人具有巡检频率高、自动化程度高、多用途等特点和诸多优势。目前,金融行业、IDC行业等都在积极探索巡检机器人的应用,可以预见,在不久的将来,巡检机器人将广泛地应用在大型数据中心内,成为基础设施智能运维的一个重要手段,因此,在金融云数据中心基础设施构建时需要前瞻性地考虑机房物理环境与巡检机器人之间的适配性,具体来讲建议关注以下几点。

(1)通过性。包括:机房内通道宽度;坡道坡度;封闭通道门框的高度;消防门、通道门、隔离门的开启方式及门禁控制;电梯控制;通风地板通风孔的直径和间隙。

(2)定位准确性。包括:机柜列的长度;定位标签;照度、玻璃反光、设备氛围灯、线缆等干扰。

(3)网络接入。网络接入方式包括Wi-Fi、4G/5G等方式,在基础设施建设时宜将上述接入方式统筹考虑。

(4)充电安全。宜设置相对独立的巡检机器人充电区域,并配置相应的消防设施、配电设施和监控设施,实现巡检机器人充电时的安全防护。

四、金融云数据中心基础设施的供配电系统

对于传统数据中心来说,目前基本按照复合密度的规划方式进行整体规划,即往往将主机房区域按照不同的功率密度进一步细化为各个子区域,一般分为高密度区域、中密度区域和低密度区域,其对应于主/小机区域、存储区域、服务器区域和网络区域。但是对于云数据中心来说,单机柜功率密度基本都在5kW以上,也就是说,其功率密度基本为中、高密度,甚至包括网络机房,目前像华为的核心交换机CE12808,其单机额定功率已达3.5kW以上,所以说云数据中心与传统数据中心相比,其功率密度大大增加。功率密度的增加也意味着云数据中心基础设施的配电系统和制冷系统在负荷计算、架构方式及可用性设计上与传统数据中心将有所区别。

(一)集中式与分布式的IT设备配电

由于传统数据中心的功率密度不高,IT设备配电基本上都采用集中式配电方式。但对于云数据中心来说,由于功率密度相对传统数据中心要高得多,如采用集中式配电方式的话,则要求UPS具备很高的容量,但同时带来了占地面积大、风险集中、效率低下、灵活性差等缺点。特别是在灵活性方面,由于集中式配电的UPS一般采用塔式机,在扩容方面将受并机能力的限制。集中式与分布式的IT设备配电的特点对比如表2所示。

表2 集中式与分布式的IT设备配电的特点对比

由于分布式配电直接部署在机柜列,因而所需占地面积更小,风险也更为分散,其容量也可以更好地与负载进行匹配,运行效率相比集中式配电更高,最关键的是其灵活性和扩展能力大大强于集中式配电,在数据中心生命周期内能够根据负载的变化灵活地进行容量适配,虽然这种配电方式会带来如增加运维管理的复杂度等问题,但相对于云数据中心高功率密度的特点及对于扩展性的要求,分布式配电方式相比集中式配电方式更适用于云数据中心。

目前分布式配电方式主要有以下三种。

(1)模块级配电。采用模块化UPS或HDVC,将其部署在机柜列,采用2N架构,即一路市电与一路UPS,或者一路市电与一路高压直流等方式,其电池可以入列也可以出列。

(2)机柜级分布式配电。这种配电方式以天蝎机柜或Facebook的OCP架构为代表,如图6所示。

图6 机柜级分布式配电示意

(3)设备级分布式配电。这种配电方式以微软的LES架构为代表,如图7所示。

图7 设备级分布式配电示意

由于机柜级和设备级分布式配电目前还受限于电池及IT设备本身,以及金融行业对于IT系统安全运行的特殊要求,机柜级和设备级分布式配电模式还暂时不适用于金融行业,模块级分布式配电相对更适合金融云数据中心对配电资源需要快速部署和灵活扩展的场景。

(二)不间断制冷系统的配电

从节能角度考虑,目前大型数据中心一般采用水冷系统,且在设计制冷系统架构时,都比较重视冷水机组、蓄冷罐、水泵和管路的容错或冗余,基本采用2N或“N+1”架构,其管路采用双供双回或环形管网方式。但是,大型数据中心对水冷系统各设施的配电的重视程度还有所欠缺。

据Intel实验分析,一个单机柜用电量约9kW的数据中心机房,一旦制冷系统停止运行,温度从22℃上升至40℃只需要18秒,上升到57℃只需要35秒。而一旦超过32℃,IT设备就会出现故障,温度继续升高,IT设备将会宕机保护,甚至损坏。因此,对于中、高功率密度的金融云数据中心来说,制冷系统配电的高可用性要求将越来越受到重视。

数据中心系统持续运行时间(Uptime)的需求,对于制冷提出了A、B、C三个等级。A级为不间断制冷系统:不间断制冷系统需要为精密空调的风机、二次泵配置UPS,并增加蓄冷罐;B级为连续制冷系统:连续制冷系统需要为精密空调的风机、二次泵配置UPS,但不增加蓄冷罐;C级为可中断的制冷系统:对制冷系统不配置任何UPS设备,在电源故障时制冷系统将停止。《数据中心设计规范》(GB 50174—2017)对于A级机房也提出了“控制系统、末端冷冻水泵、空调末端风机应由不间断电源系统供电”等要求。

对于金融云数据中心来说,由于功率密度的提高,其制冷系统尤为重要,因此制冷系统不间断将是金融云数据中心基础设施构建时的一项基本要求。除制冷系统架构采用容错或冗余模式外,其配电架构也需要采用高可用性的解决方案。两路市电分别承担不同的冷水机组负载,当两路市电停电时,由发电机提供应急电源,冷冻水机组供电电源采用冗余方式;水泵供电采用两套UPS组成2N架构,末端采用两路UPS或一路UPS一路市电的冗余方式经ATS(Automatic Transfer Switch,双电源自动切换开关)为水泵提供电源;末端空调采用两套UPS组成2N架构,末端采用两路UPS或一路UPS一路市电的冗余方式经ATS为末端空调提供电源。

五、金融云数据中心的模块化建设方式

金融云数据中心由于规模庞大,在建设时一般都会分阶段实施,其建设不可能一蹴而就,因此标准化、模块化的建设理念至关重要。同时,模块化产品则是让基础设施具备灵活的扩展能力和快速的部署能力的重要手段。

(一)模块化建设理念

模块化产品由于具备配置灵活、易于部署、节省空间、方便运维、提升效率等优势,对于提升数据中心安全运行、灵活扩展、快速部署和高效运维的能力有极大帮助,目前已得到了业界的广泛认可。模块化配电、模块化制冷、微模块、模块化UPS、一体化机柜、智能小母线、集装箱机房等模块化产品已逐步应用在数据中心的基础设施建设中。然而,从目前来看,模块化的发展还有很长的路要走,模块化建设理念不仅依靠模块化产品的堆积,更重要的是模块化的设计理念。

模块化的设计理念包括接口标准化、空间区域模块化、功能区域模块化。接口标准化是指各功能模块、组件之间的接口应统一,以满足模块之间的互联互通,以及模块的快速部署、更新和扩展;空间区域模块化是指园区模块化、机房模块化、机房子区域模块化、机柜模块化等不同颗粒度的模块之间的协调、拼装、集成等;功能区域模块化则是指配电、制冷、综合布线、安防、消防、环境监控等具备不同的专业功能的模块或组件,这些不同专业功能的模块、组件之间需要相互协调、相互结合形成整体,从而降低基础设施的运营成本。

模块化的设计需要业主、设计单位、制造企业、施工单位之间打破行业之间、专业之间的壁垒,抛弃各行其是的传统的建设思维,以开放、包容、融合的新思维将数据中心基础设施的建设作为一个产品制造的过程,只有这样,模块化才能让金融云数据中心的基础设施走上一个新的台阶,才能让模块化的优势真正地发挥出来。

(二)模块化产品应用

模块化产品应用包括动力配电、制冷系统、UPS、精密空调、机柜等多种模块化产品。

(1)微模块产品。微模块产品围绕机柜微环境,由机柜、桥架、门禁、末端配电、空调及消防设施等各独立运行的组件组成,具备工厂预制、快速部署、弹性扩展、方式灵活、节能降耗等诸多优点,适用于机柜的快速安装。

(2)模块化机柜配电。整组模块采用双路模块化UPS配电,机柜级配电通过插接箱直接取至智能轨道式母线。由于智能轨道式母线的插接箱可在线插拔,具有可灵活调整位置、随时调相等特点,因而具备节约空间、快速部署、灵活扩展、方便运维等诸多优点,适用于云数据中心基础设施的机柜级配电的快速扩容。

对于传统数据中心来说,模块化产品应用是一个逐步发展的过程,早期的数据中心很少采用模块化的方法来进行设计和建设,由于模块化具备配置灵活、易于部署、节省空间、方便运维、提升效率等显著优点,近几年模块化产品已开始普遍应用于数据中心建设。

对于云数据中心来说,由于IaaS平台的虚拟机的大范围漂移(甚至是跨数据中心的漂移),以及频繁的资源调配是其日常运行的主要特征,因此金融云数据中心基础设施要具备快速部署和弹性扩展的能力,更应采用模块化的设计理念,且模块的颗粒度要较细,才能满足IaaS平台的这种运行特点。

例如,IaaS平台的横向扩展主要涉及机柜的增加,且在增加时,一般会基于IaaS平台的最小配置单元进行扩展,如要满足这种颗粒度,则机柜的安装、配电、制冷及综合布线均需要采用标准化的组件方式才能达到快速部署和灵活扩展的目的,因此像微模块和智能轨道式母线这种模块化产品对于IaaS平台的横向平滑扩展将带来很大的帮助。

从“以账户为中心”到“以客户为中心”的业务模式;从集中式到“集中与分布式”的IT架构;从“两地三中心”到“多地多活”的IT基础设施布局,金融行业IT信息系统伴随着业务的需求变化和技术的应用不断向前发展,随之而来的是云数据中心建设这样一个新的开端,而基础设施如何跟上云平台技术的步伐,在未来如何从“随需应变”走向“随需而变”,如何从智能化迈向智慧化,将是金融云数据中心基础设施发展的核心问题。

(作者单位:中国银行股份有限公司信息科技运营中心)