小猪教你搭建高可用Web集群

前段时间有同学问我一个高可用集群到底是怎么建设的,这是一个比较广泛的话题,首先要清楚到底什么叫『高可用集群』;其次,常见的集群又分很多种,例如WEB集群、DB集群、大数据集群等,他们既有相似的地方,又因应用场景不同导致集群架构设计上有所不同。本文先简要介绍下『一个典型的Web集群是如何从普通的单点服务一步一步演变为一个高可用集群的』。

相关名词

在开始之前,先简单明确几个基础名词概念:

  • 分布式

–系统的多个模块部署在不同服务器上;或相同的模块部署在不同服务器上

  • 高可用

–部分节点失效时,其他节点能够接替它继续提供服务

  • 集群

–一个特定系统部署在多台服务器上,并作为一个整体提供一类服务

–高可用集群:客户端可连接集群任意节点获得服务,单节点失效其他节点能接替它服务

  • 负载均衡

–通过某种方式把系统请求均匀分发到多个节点上,使各节点均匀的处理请求负载

  • 正向代理/反向代理

–正向代理:内部访问外部,统一通过代理服务器转发

–反向代理:外部访问内部,代理服务器把请求转发到系统中的某台服务器上

单机架构

  • 场景:

–规模小:应用数量、用户规模、访问量

  • 架构方案:

–单机搞定

  • 架构说明:

在网站最初时,应用数量与用户数都较少,可以把Nginx和数据库部署在同一台服务器上。浏览器往www.yanjingang.com发起请求时,首先经过DNS服务器(域名系统)把域名转换为实际IP地址202.xx.xx.21,浏览器转而访问该IP对应的Nginx。

Web服务与DB服务隔离

  • 场景:

–用户增长:Webserver与Dbserver之间竞争资源,单机性能高不足以支撑

  • 架构方案:

–Web服务与DB服务隔离:解决单机性能瓶颈

  • 架构说明:

Nginx和数据库分别独占服务器资源,显著提高两者各自性能。

引入本地缓存和分布式缓存

  • 场景:

–用户增长:数据库并发读写成为瓶颈,读多写少

  • 架构方案:

–引入缓存:降低数据库读压力

  • 架构说明:

在Nginx同服务器上增加本地缓存,并在外部增加分布式缓存,缓存热门信息或页面模版组件等。通过缓存能把绝大多数请求在读数据库前拦截掉,大大降低数据库压力。

引入反向代理实现负载均衡

  • 场景:

–用户增长:单webserver响应变慢

  • 架构方案:

–增加第七层负载均衡:降低单webserver压力

  • 架构说明:

在多台服务器上分别部署webserver,使用反向代理软件(HAProxy或Nginx)把请求均匀分发到每个webserver中。此处假设webserver最多支持100个并发,Nginx最多支持50000个并发,那么理论上Nginx把请求分发到500个webserver上,就能抗住50000个并发。

其中涉及的技术包括:Nginx、HAProxy,两者都是工作在网络第七层的反向代理软件,主要支持http协议,还会涉及session共享、文件上传下载的问题。

数据库读写分离

  • 场景:

–用户增长:单dbserver成为瓶颈

  • 架构方案:

–DB读写分离:读请求负载到slave

  • 架构说明:

把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写入数据场景,可通过在缓存中多写一份,通过缓存获得最新数据。

其中涉及的技术包括数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据一致性的问题。

数据库分库

  • 场景:

–业务变多:不同业务访问量差距较大,相互竞争数据库,影响性能和稳定性

  • 架构方案:

–分库:按业务或hash分库

  • 架构说明:

把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量大的业务,可以部署更多的服务器来支撑。同一业务内访问量预计会超过单db承载上限时,也可采用分库的方式解决,只是需要一层类似Mycat的访问控制将请求分发到不同的子库。分库的方式通常会延伸出跨库无法直接做关联分析,需要通过其他途径来解决,但这不是本文讨论的重点,有兴趣的可以自行搜索解决方案。

数据库分表

  • 场景:

–用户增长:单表写成为性能瓶颈

  • 架构方案:

–大表拆小表:按time或hash分表

  • 架构说明:

比如针对评论数据,可按照文章ID进行hash,路由到对应的表中存储;针对支付记录,可按照小时创建表,每个小时表继续拆分为小表,使用用户ID或记录编号来路由数据。

只要实时操作单表数据量足够小,请求能够足够均匀的分发到多台服务器上的小表,那数据库就能通过水平扩展的方式来提高性能。

这种做法显著的增加了数据库运维的难度,对DBA的要求较高。数据库设计到这种结构时,已经可以称为分布式数据库,但是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发组件实现,SQL的解析由单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结果的汇总可能由数据库接口层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现。

目前开源和商用都已经有不少MPP数据库,开源中比较流行的有Greenplum、TiDB、Postgresql XC、HAWQ等,商用的如南大通用的GBase、睿帆科技的雪球DB、华为的LibrA等等,不同的MPP数据库的侧重点也不一样,如TiDB更侧重于分布式OLTP场景,Greenplum更侧重于分布式OLAP场景,这些MPP数据库基本都提供了类似Postgresql、Oracle、MySQL那样的SQL标准支持能力,能把一个查询解析为分布式的执行计划分发到每台机器上并行执行,最终由数据库本身汇总数据进行返回,也提供了诸如权限管理、分库分表、事务、数据副本等能力,并且大多能够支持100个节点以上的集群,大大降低了数据库运维的成本,并且使数据库也能够实现水平扩展。

第四层负载均衡

  • 场景:

–第七层反向代理Nginx成为瓶颈

  • 架构方案:

–增加第四层负载均衡

–LVS:运行在操作系统内核的软件,支持单机几十万并发请求转发;可通过keepalived设置路由器虚拟IP实现主备

–F5:负载均衡硬件,性能更高,价格昂贵

  • 架构说明:

由于瓶颈在Nginx,因此无法通过两层的Nginx来实现多个Nginx的负载均衡。图中的LVS和F5是工作在网络第四层的负载均衡解决方案,其中LVS是软件,运行在操作系统内核态,可对TCP请求或更高层级的网络协议进行转发,因此支持的协议更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的请求转发;F5是一种负载均衡硬件,与LVS提供的能力类似,性能比LVS更高,但价格昂贵。

由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都无法访问,因此需要有备用节点。可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会自动更新路由器中的路由表,把虚拟IP重定向到另外一台正常的LVS服务器,从而达到LVS服务器高可用的效果。

此处需要注意的是,上图中从Nginx层到Tomcat层这样画并不代表全部Nginx都转发请求到全部的Tomcat,在实际使用时,可能会是几个Nginx下面接一部分的Tomcat,这些Nginx之间通过keepalived实现高可用,其他的Nginx接另外的Tomcat,这样可接入的Tomcat数量就能成倍的增加。

通过DNS实现机房间负载均衡

  • 场景:

–LVS成为瓶颈

–用户上亿,并发突破几十万

–用户地域分布,与机房距离不同导致访问延迟

  • 架构方案:

–DNS指向多机房虚拟VIP

–权重轮询、智能解析(地域,运营商)或其他策略(也可多vip互为主备)

–机房级水平扩展

  • 架构说明:

在DNS服务器中可配置一个域名对应多个IP地址,每个IP地址对应到不同的机房里的虚拟IP。当用户访问www.yanjingang.com时,DNS服务器会使用轮询策略或其他策略,来选择某个IP供用户访问。

此方式能实现机房间的负载均衡,至此,系统可做到机房级别的水平扩展,千万级到亿级的并发量都可通过增加机房来解决,系统入口处的请求并发量不再是问题。

引入NoSQL数据库和搜索引擎等技术

  • 场景:

–数据分析/检索成为瓶颈

–在线db不擅长

  • 架构方案:

–特定场景方案

–海量文件存储:HDFS+Hive

–海量KV存储:Hbase/Redis

–全文检索:ElasticSearch

–海量多维分析:Kylin/Druid

  • 架构说明:

当数据库中的数据多到一定规模时,数据库就不适用于复杂的查询了,往往只能满足普通查询的场景。对于统计报表场景,在数据量大时不一定能跑出结果,而且在跑复杂查询时会导致其他查询变慢,对于全文检索、可变数据结构等场景,数据库天生不适用。

因此需要针对特定的场景,引入合适的解决方案。如对于海量文件存储,可通过分布式文件系统HDFS解决,对于key value类型的数据,可通过HBase和Redis等方案解决,对于全文检索场景,可通过搜索引擎如ElasticSearch解决,对于多维分析场景,可通过Kylin或Druid等方案解决。

当然,引入更多组件同时会提高系统的复杂度,不同的组件保存的数据需要同步,需要考虑一致性的问题,需要有更多的运维手段来管理这些组件等。

大应用拆分小应用

  • 场景:

–应用太过庞大

–升级/迭代困难

  • 架构方案:

–应用拆分

–高内聚/低耦合

–独立迭代/升级

–公共配置->ZK

  • 架构说明:

按照业务板块来划分应用代码,使单个应用的职责更清晰,相互之间可以做到独立升级迭代。这时候应用之间可能会涉及到一些公共配置,可以通过分布式配置中心Zookeeper来解决。

微服务化

  • 场景:

–应用拆分带来的公用模块问题

–代码重复

–统一升级困难

  • 架构方案:

–公共模块微服务化

–HTTP/TCP/RPC

–服务治理

–限流

–熔断

–降级

  • 架构说明:

不同应用之间存在共用的模块,由应用单独管理会导致相同代码存在多份,导致公共功能升级时全部应用代码都要跟着升级。

如用户管理、订单、支付、鉴权等功能在多个应用中都存在,那么可以把这些功能的代码单独抽取出来形成一个单独的服务来管理,这样的服务就是所谓的微服务,应用和服务之间通过HTTP、TCP或RPC请求等多种方式来访问公共服务,每个单独的服务都可以由单独的团队来管理。

此外,可以通过Dubbo、SpringCloud等框架实现服务治理、限流、熔断、降级等功能,提高服务的稳定性和可用性。

容器化/虚拟化

  • 场景:

–快速弹性扩容困难

–物理单机多服务

–部署运维困难

–资源分配不灵活

  • 架构方案:

–容器化/虚拟化

–Docker/Kubernetes镜像部署、资源隔离、快速弹性扩容(any service)

  • 架构说明:

业务不断发展,应用和服务都会不断变多,应用和服务的部署变得复杂,同一台服务器上部署多个服务还要解决运行环境冲突的问题,此外,对于如运营活动这类需要动态扩缩容的场景,需要水平扩展服务的性能,就需要在新增的服务上准备运行环境,部署服务等,运维将变得十分困难。

目前最流行的容器化技术是Docker,最流行的容器管理服务是Kubernetes(K8S),应用/服务可以打包为Docker镜像,通过K8S来动态分发和部署镜像。Docker镜像可理解为一个能运行你的应用/服务的最小的操作系统,里面放着应用/服务的运行代码,运行环境根据实际的需要设置好。

把整个“操作系统”打包为一个镜像后,就可以分发到需要部署相关服务的机器上,直接启动Docker镜像就可以把服务起起来,使服务的部署和运维变得简单。

在大促的之前,可以在现有的机器集群上划分出服务器来启动Docker镜像,增强服务的性能,大促过后就可以关闭镜像,对机器上的其他服务不造成影响(而在没有容器虚拟化之前,服务运行在新增机器上需要修改系统配置来适配服务,这会导致机器上其他服务需要的运行环境被破坏)。

云平台化

  • 场景:

–备用机器闲置

–资源利用率低

  • 架构方案:

–云平台化

–IaaS基础设施即服务:CPU/内存/网络

–PaaS平台即服务:存储服务/发布服务/弹性伸缩服务/资源监控/故障发现等组件上云

–SaaS软件即服务:SMS/Mail/AI服务等

  • 架构说明:

使用容器化技术后服务动态扩缩容问题得以解决,但是机器还是需要公司自身来管理,在非大型运营活动的时候,还是需要闲置着大量的机器资源来应对运营活动,机器自身成本和运维成本都极高,资源利用率低。

系统可部署到公有云上,利用公有云的海量机器资源,解决动态硬件资源的问题,在大促的时间段里,在云平台中临时申请更多的资源,结合Docker和K8S来快速部署服务,在大促结束后释放资源,真正做到按需付费,资源利用率大大提高,同时大大降低了运维成本。

所谓的云平台,就是把海量机器资源,通过统一的资源管理,抽象为一个资源整体,在之上可按需动态申请硬件资源(如CPU、内存、网络等),并且之上提供通用的操作系统,提供常用的技术组件(如Hadoop技术栈,MPP数据库等)供用户使用,甚至提供开发好的应用,用户不需要关系应用内部使用了什么技术,就能够解决需求(如音视频转码服务、邮件服务、个人博客等)。在云平台中会涉及如下几个概念:

IaaS:基础设施即服务。对应于上面所说的机器资源统一为资源整体,可动态申请硬件资源的层面;

PaaS:平台即服务。对应于上面所说的提供常用的技术组件方便系统的开发和维护;

SaaS:软件即服务。对应于上面所说的提供开发好的应用或服务,按功能或性能要求付费。

 

至此,典型web集群在各阶段的高并发问题都有了各自的解决方案,因篇幅限制,诸如存储跨机房数据同步、分布式事务、CDN、大数据分析等许多实际问题并没有详细展开,这些在后续的文章里再具体讲解。

欢迎关注『小猪实验室』微信公众号,你将收到后续的『高可用』系列最新内容。

yan 2020.4.9  23:50

 

发表评论

电子邮件地址不会被公开。