随着计算机科学和互联网的发展,分布式场景变得越来越常见,能否处理好分布式场景下的问题,成为衡量一个工程师是否合格的标准。本文我们介绍下分布式系统相关的理论知识,这些理论是我们理解和处理分布式问题的基础。
CAP理论是在1998年由计算机科学家Eric Brewer提出的。介绍下CAP理论。
CAP理论的原理是:一个系统最多可以同时满足以上三个条件中的两个,不可能三个同时满足。 之前看到过一个更容易理解的解释方法:
CP:不同空间,如果数据一致必然不会在同一时间 AP:不同空间,如果在同一时刻可以从任意空间取数据必然会导致数据状态不一致 CA:任意时刻获取数据都保证一致,必然P只能是1
结合现实中的业务场景,P(分区容错性)是每一个系统必须满足的要求,我们实际的选择就只有CP和AP两种模型了。CP模型的特点是,一致性要求高,像我们熟悉的Zookeeper就是典型的CP模型。AP模型的特点是,保证高可用,数据保持最终一致性,不追求实时的一致性。比较典型的有Eurka
Base的全称:Basically Available(基本可用)、Soft state(软状态)和Eventual consistency(最终一致性)。
Eventual consistency在实践中往往还需要注意几点:
Base理论更适合大型分布式系统的整体设计,不同于ACID的强一致模型。它允许通过牺牲强一致来增强系统的可用性,允许经过一定时间数据达到最终一致。在实际业务场景中可以把Base和ACID结合使用。
引用维基百科的定义:“二阶段提交(英语:Two-phase Commit)是指在计算机网络以及数据库领域内,为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种算法。通常,二阶段提交也被称为是一种协议(Protocol)”
二阶段提交,存在协调者
和执行者
两种角色。
准备完毕
状态;如果事务执行失败,返回终止
状态。如果有一个或多个执行者返回终止
,发起回滚流程:
回滚
请求。回滚完成
。回滚完成
,事务回滚成功。如果协调者接收到所有执行者返回准备完毕
,执行第二阶段。
第二阶段:提交执行阶段
commit成功
消息。commit成功
消息后,完成事务。协调者在第二阶段,必须完成任务。
二阶段提交的优缺点:
三阶段提交:三阶段提交就是把二阶段提交的第一阶段拆分成了两个阶段,带来的好处是,提前预知风险,减少执行者互相阻塞。
如果所有执行者都返回“Can”,则进入下一阶段。
如果有执行者返回“No”或者有执行者请求超时,协调者向所有执行者发送回滚操作,执行者接收到回滚操作,执行完回滚,ACK。如果所有执行者都返回“Can”进入下一阶段。
优点:三阶段提交缓解了二阶段提交执行者的阻塞问题。但是并没有从根本上解决协调者的单点、网络延迟等问题。
“Paxos算法是莱斯利·兰伯特(英语:Leslie Lamport)于1990年提出的一种基于消息传递且具有高度容错特性的共识(consensus)算法”。Paxos算法有两部分:Basic Paxos和Multi-Paxos。Basic Paxos是解决多节点如何就某一个值达成共识;Multi-Paxos是多组Basic Paxos如何把一些列值达成共识。Multi-Paxos没有严格的证明过程,更多的是作为解决分布式问题的指导思想。我们这里主要介绍下Basic Paxos算法。Basic Paxos中有三种角色:Proposer(提议者)、Acceptor(接受者)、Learner(学习者)。
在算法具体实现时,通常Proposer是第一个接收到客户端请求的节点,节点既是Proposer又是Acceptor。这样可以把算法逻辑尽量集中在服务内部,与客户端解耦。证明过程可参照维基百科:(https://zh.wikipedia.org/wiki/Paxos%E7%AE%97%E6%B3%95#%E7%AE%97%E6%B3%95)
通过一个决议分为两个阶段:
阶段一:Prepare阶段
阶段二:Accept阶段
我们举一个实际的例子:
P1 P2代表两个Proposer A1 A2 A3代表三个Acceptor
阶段一:Prepare阶段
P1向A1、A2、A3发送编号为1的提案;P2向A1、A2、A3发送编号为2的提案。
阶段二:Accept阶段 因为P1和P2在Prepare阶段都收到了超过半数Acceptor的响应,所以二者都会发起Accept请求。 P1发起编号为1,值为1的请求;P2发起编号为2,值为2的请求。
提案获取:Acceptor把批准的提案,发送给Learner的一个leader组,该小组负责把提案信息扩散到所有Learner节点。 Paxos的业界典型实现:Chubby
Raft算法在近几年几乎成了共识性算法的首选。像Etcd、Consul、Tidb都使用了Raft算法。Raft算法中的节点,存在三种状态Follower(跟随者)和Candidate(候选人)、 Leader(领导者) 3 种状态。
集群诞生: 集群刚刚启动的时候,所有的节点都是Follower,Follower没有收到来自Leader的心跳检测,他会自己提升自己为Candidate,Candidate向别的节点请求选票,如果Candidate接收到大于半数节点的选票,Candidate就会变为Leader。
第一次集群状态一致: 系统的所有改变都要通过Leader节点进行,每一次变更操作都被记录到日志中。 客户端的请求需要先发送到Leader节点 Leader节点第一次把日志发送给Follower节点 Leader节点等待超过半数的节点,已经成功记录了日志(并未提交) Leader节点commit当前值 Leader通知Follower节点值已经被commit,Follower节点也提交日志。 现在集群达到了第一次启动后的一致状态。
在Raft算法中有两个超时设置,来控制选主。
一段时间
之后如果没有收到Leader节点的存活检测,就会把自己提升为Candidate。我们假设Follower把这个超时时间设置为150-300ms之间的随机值(150-300ms只是一个示例)。<span style="font-size: 17px;">随机等待一段时间
重新发起下一轮投票,直到选出一位Leader。一旦我们集群中有了Leader,就需要复制所有的变更到集群中的所有节点,通过发送“Append Entries message”消息来完成日志复制。
在多个节点同时做成员变更期间,如果刚好发生网络分区,容易出现一个集群中多个Leader的现象,这时如果客户端还往集群发送请求,就会出现脑裂。我们通常使用单节点变更的方式来解决Raft集群的成员变更,即每次只增删一个节点。单节点成员的变更分为两步:
Raft算法中还有一些规则需要注意:
要想理解XA事务,首先需要知道DTP 模型( Distributed Transaction Processing),DTP模型有三个模块:
XA规范主要规定了RM和TM之间的交互流程,依赖二阶段提交的思路。XA规定了一些列的接口,如下图:
其中最主要的接口有:
XA事务的执行流程我们也以图例的形式展示:
具体步骤:
因为像MySQL、Oracle等数据库都实现了XA事务,因此我们在做一些跨库操作的时候,不管是不是同一种数据库,只要实现了XA协议,我们都可以调用对方的API完成分布式事务。
TCC是典型的柔性分布式事务的理论,通过补偿机制,保证数据的最终一致性。TCC的三个阶段:
TCC理解起来比较简单,但是再具体实现时,需要着重考虑一下几个问题:请求接口的幂等设计,try过程中加锁资源的设计等等。
NWR 模型的思想是把 CAP 的选择权交给了用户,让用户通过配置可以灵活调节CAP模型中C和A的选择比重。
如果 W + R > N,所以 R > N – W,也就是说,每次读取,都至少读取到一个最新的版本。 当需要高可写时,可以配置 W = 1 R = N。只要写任何节点成功就认为成功,但读的时候必须从所有的节点都读出数据 —> 弱一致性,高可用性。 当需要高可读时,可以配置 W = N R = 1。必须写所有节点成功才认为成功,这时读任何一个节点成功就认为成功 —> 强一致性,低可用性。
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8