双活数据中心方案.pdf
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《双活数据中心方案.pdf》由会员分享,可在线阅读,更多相关《双活数据中心方案.pdf(7页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。
1、双活数据中心方案双活数据中心方案一、需求背景:一、需求背景:随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的 7*24 小时连续运营并提升用户体验成为信息部门的首要职责.商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难
2、备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择.二、发展趋势二、发展趋势:多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活.目前客户建设多数据中心的模型可以归纳为以下几种:1.1.单纯的数据容灾:单纯的数据容灾:正常情况下只
3、有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入.灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。2.2.构建业务连续性:构建业务连续性:两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步.发生灾难时,数据中心间的数据库可以快速切换,避免业务中断。双活数据中心可充分盘活企业闲置
4、资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。3 3。提升业务服务能力:。提升业务服务能力:多个数据中心同时对外提供服务且互为备份,各中心的数据库可同时处理应用的读写请求,网络、存储、应用和数据库全部实现多活。各数据中心独立运营,用户流量可被智能调度,形成灵活、弹性和可扩展的面向服务的业务架构.三、业务目标:三、业务目标:用户建设多数据中心的思路和建设模型略有不同,但大多数用户的主要建设目标可以归纳为以下几点:流量分发流量分发用户访问流量可灵活、弹性的调度到多个数据中心,使各数据中心压力相对均衡,保证用户接入最近最快速的数据中心节点,提高用户访问体验。故障切换故障切换当出口链
5、路或内部服务器出现异常时,运维人员可第一时间获悉故障情况,业务可根据需要自动或手动平滑切换至正常节点,保证用户访问的连续性。业务安全业务安全数据中心所处位置基础设施完善,水电通信供应稳定,数据中心内部有相应技术手段保证整个数据中心抵抗 DDos 攻击,各业务系统不被黑客非法入侵。环境一致性环境一致性多个数据中心对用户来说理应是透明的,其对外服务时提供统一接口,各数据中心内部数据和服务能力需要完全一致,且随时处于可切换状态。四、实现逻辑四、实现逻辑我们把整个数据中心在逻辑上分为接入层和服务层,其处理逻辑的示意图如下:接入层(智能接入层(智能 DNSDNS)接入层(接入层(RHIRHI 路由注入)
6、路由注入)服务层服务层 故障切换故障切换五、总体设计五、总体设计总行数据中心整体上分为主中心和灾备中心,二者的网络架构、业务系统和服务能力都基本相同,同时对外提供服务,形成双活数据中心。数据中心内部划分为互联网业务区(提供外网服务,如手机银行、网上银行等)、核心生产业务区(传统生产业务,如 ATM、柜面等)、数据库区(生产/查询)和业务测试区,出于成本考虑,灾备数据中心不设业务测试区。主备数据中心和各一级分行之间通过专线互联,利用动态路由协议组建企业内部专网。数据中心的对外业务集中在互联网业务区,通常使用域名方式对外发布,客户端访问业务系统时,需要先由 DNS 将域名解析为 IP 地址,然后再
7、访问该目标IP。对外业务的全局负载通常利用 DNS 解析实现,其可根据用户地理位置、用户所属运营商和网络质量、数据中心服务能力等因素作为判断依据,为不同用户返回不同的 IP 地址,实现流量的合理分配。对于数据中心的内网业务,一部分与外网业务相同,通过域名发布。另一部分与一级分行业务类似,直接通过 IP 地址访问。对于通过 IP 地址访问的业务,内网全局负载采用 IPAnycast(RHI 路由注入)技术实现,其原理是在各数据中心以相同 IP 发布业务,由动态路由协议根据 COST 值等参数用户判断访问的最佳路径。六、互联网业务全局负载六、互联网业务全局负载(以网银为例以网银为例)1.1.设计模
8、型设计模型我们把网银业务从逻辑上分为接入侧和服务侧,接入侧包括出口链路、全局负载设备;服务侧包括 WEB 服务单元、APP 服务单元和 DB 服务单元.WEB 服务单元包含 SSL 卸载设备、WAF 防火墙、负载均衡和服务器;APP 服务单元包含防火墙、负载均衡和服务器;DB 服务单元包含防火墙、负载均衡、数据库审计和数据库。WEB 服务单元和 APP 服务单元在 2 个数据中心同时提供服务,实现应用双活.考虑到数据强一致性、技术成熟度和成本等因素,双数据中心间的 DB服务单元建议主备部署,数据中心内部的数据库集群可结合本地负载均衡实现多活。为达到最佳负载效果,需要各服务单元的负载设备可以访问
9、其他数据中心对应服务单元的服务器,但优先调度本地服务器。2.2.实现方式实现方式(1 1)流量调度)流量调度数据中心层面:我们推荐使用两层逻辑算法的智能 DNS 调度策略,首先,全局负载设备会判断用户的地理位置,将用户调度到就近的数据中心,解决南北互访的问题;其次,根据用户所属运营商选择对应链路供用户接入,解决跨运营商访问慢的问题.此外,全局负载还可对客户端 LDNS 发起反向探测,判断用户网络质量,为用户选择最佳接入路径。服务单元层面:WEB、APP 和 DB 服务单元都配备了本地负载均衡器,用户访问流量到达数据中心内部后,由服务单元的负载设备根据预设策略分发给各服务器,可根据用户需求灵活选
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据中心 方案
![提示](https://www.deliwenku.com/images/bang_tan.gif)
限制150内