资讯详情

分布式理论与事务

文章目录

  • 0.前言
  • 1.CAP 定理
  • 2.BASE 理论
  • 3.共识算法
    • 3.0 共识与一致性的关系
    • 3.1 分类
    • 3.2 Paxos
      • 3.2.1 简介
      • 3.2.2 地位
      • 3.2.3 解决的问题
      • 3.2.4 相关概念
      • 3.2.5 基本原理
        • 3.2.5.1 单提议者 多接受者
        • 3.2.5.2 多提议者 单接受者
        • 3.2.5.3 多提议者 多接受者
        • 3.2.5.4 二阶段提交
      • 3.2.6 算法流程
      • 3.2.7 算法示例
      • 3.2.8 活问题
      • 3.2.9 小结
    • 3.3 Multi-Paxos
      • 3.3.1 背景
      • 3.3.2 改进
      • 3.3.3 小结
    • 3.4 Raft
      • 3.4.1 简介
      • 3.4.2 概述
      • 3.4.3 Leader 选举
      • 3.4.4 日志同步
      • 3.4.5 安全性
      • 3.4.6 日志压缩
      • 3.4.7 成员变更
      • 3.4.8 Raft 与 Multi-Paxos 的异同
      • 3.4.9 脑裂问题
      • 3.4.10 FAQ
      • 3.4.11 小结
    • 3.5 ZAB
      • 3.5.1 简介
      • 3.5.2 三个角色
      • 3.5.3 消息广播
      • 3.5.4 崩溃恢复
      • 3.5.5 数据同步
      • 3.5.6 脑裂问题
      • 3.5.7 小结
    • 3.6 Gossip
      • 3.6.1 简介
      • 3.6.2 六度分隔理论
      • 3.6.3 原理
      • 3.6.4 新闻传播方式
      • 3.6.5 通信方式
      • 3.6.6 复杂度分析
      • 3.6.7 优点
      • 3.6.8 缺点
      • 3.6.9 工程使用
  • 4.分布式事务
    • 4.0 方案分类
    • 4.1 强一致性方案
      • 4.1.1 2PC
      • 4.1.2 3PC
      • 4.1.3 XA 协议
    • 4.2 最终一致方案
      • 4.2.1 本地事务状态表
      • 4.2.2 可靠的信息队列
        • 4.2.2.1 本地消息表
        • 4.2.2.2 事务消息
      • 4.2.3 尽量通知
      • 4.2.4 TCC
      • 4.2.5 SAGA 事务
        • 向前恢复(Forward Recovery)
        • 向后恢复(Backward Recovery)
        • 命令协调模式
        • 事件安排模式
    • 4.3 弱一致性方案
      • 4.3.1 基于状态的补偿
      • 4.3.2 事后对账
    • 4.4 小结
  • 5.开源框架
    • 5.1 Seata
    • 5.2 DTM
  • 参考文献

0.前言

作为后台开发人员,你可能不懂分布式理论,但你所做的很多事情都符合分布式理论。例如,为了确保服务的高可用性,我们可能经常采取降级策略。例如,当我们做个性化的推荐服务时,我们需要从用户中心获取用户的个性化数据,以便代入模型进行评分和排序。但是,如果用户中心服务挂断,我们无法获取数据,则不推荐?显然不是,我们可以在当地 cache 在里面放一个热门的商品来兜底。

通过本篇文章的介绍,希望让你对分布式相关理论知识有个大致了解。理论指导实践,理论知识了然于胸,实践起来才会胸有成足。当你了解了相关的分布式理论知识,回过头再看自己在日常开发工作中所干的事情,你会不禁感叹,原来我的实现方案是符合分布式理论的。

1.CAP 定理

2000 加州大学伯克利分校的计算机科学家 Eric Brewer 分布式计算原理研讨会(PODC)分布式系统有三个指标:

一致性(Consistency) 可用性(Availability) 分区容错性(Partition tolerance) 

它们的第一个字母是 C、A、P。

Eric Brewer 这三个指标最多只能同时实现两个,三者不能兼顾,这就是著名的布鲁尔猜想。

在随后的 2002 年,麻省理工学院(MIT)的 Seth Gilbert 和 Nancy Lynch 布鲁尔猜想的证明使它成为一个定理,即 CAP 定理。

CAP 定理告诉我们,

2.BASE 理论

在 CAP 在定理的背景下,大多数分布式系统更倾向于业务逻辑和用户,因此可用性的相对一致性更为重要。如何构建一个高度可用的分布式系统,BASE 理论答案。

2008 年,eBay 工程师 Dan Pritchett 把事务的 ACID 在计算机协会放宽原则(Association for Computing Machinery,ACM)上面发表了一篇文章 《Base: An Acid Alternative》,正式提出 BASE 理论。

BASE 理论指:

  • asically vailable(基本可用)

基本可用性是假设系统出现故障,以确保系统基本可用,而不是完全不能使用。例如,采用降级策略,假设我们需要从用户中心获取个性化数据,以便代入模型进行评分和排序。但是如果用户中心服务挂断,我们得不到数据,那么就不推荐了?显然不是,我们可以在当地 cache 在里面放一个热门的商品来兜底。

  • oft state( 软状态)

软状态是指允许系统中的数据处于中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本中延迟数据。

  • ventual consistency(最终一致性)

上面讲到的软状态不可能一直是软状态,必须有时间期限。在期限过后,应当保证所有副本保持数据一致性,从而达到数据的最终一致性,因此所有客户端对系统的数据访问最终都能够获取到最新的值,而这个时间期限取决于网络延时、系统负载、数据复制方案等因素。

BASE 基于 CAP 定理逐步演化而来,其来源于对大型分布式系统实践的总结,是对 CAP 中一致性和可用性权衡的结果,。BASE 可以看作是 CAP 定理的延伸。

3.共识算法

BASE 理论适用于业务系统,对于系统的一些核心组件,还是需要做到强一致。此时便需要依赖共识算法,来保证分布式系统的元数据在多个节点上是一致的。

3.0 共识与一致性的关系

共识(Consensus)很多时候会与一致性(Consistency)放在一起讨论。严谨地讲,两者的含义并不完全相同。

一致性的含义比共识宽泛,在不同场景(基于事务的数据库、分布式系统等)下意义不同。具体到分布式系统场景下,一致性指的是多个副本对外呈现的状态。如前面提到的顺序一致性、线性一致性,描述了多节点对数据状态的共同维护能力。而共识,则特指在分布式系统中多个节点之间对某个事情(例如多个事务请求,先执行谁?)达成一致意见的过程。因此,达成某种共识并不意味着就保障了一致性。

实践中,要保证系统满足不同程度的一致性,往往需要通过共识算法来达成。

共识算法解决的是分布式系统对某个提案(Proposal),大部分节点达成一致意见的过程。提案的含义在分布式系统中十分宽泛,如多个事件发生的顺序、某个键对应的值、谁是主节点 …… 等等。可以认为任何可以达成一致的信息都是一个提案。

对于分布式系统来讲,各个节点通常都是相同的确定性状态机模型(又称为状态机复制问题,State-Machine Replication),从相同初始状态开始接收相同顺序的指令,则可以保证相同的状态。因此,系统中多个节点最关键的是对多个事件的顺序进行共识,即排序。

算法共识/一致性算法有两个最核心的约束:

  • 安全性(Safety) 保证决议(Value)结果是正确无歧义的。只有是被提案者提出的提案才可能被最终批准;在一次执行中,只批准一个最终决议,被多数接受的结果成为决议。
  • 存活性(Liveness) 保证决议过程能在有限时间内完成。决议总会产生,并且学习者最终能获得被批准的决议。

3.1 分类

从一致性强弱可以把共识算法分为两类:

  • 强一致性

保证系统改变提交以后立即改变集群的状态,如 Paxos、Muti-Paxos、Raft、ZAB。

  • 最终一致

系统不保证改变提交以后立即改变集群的状态,但是随着时间的推移最终状态是一致的。如 DNS 系统、Gossip 协议。

以上所列的共识算法均有落地,如:

  • Google 的分布式锁服务 Chubby 采用了 Muti-Paxos 算法。
  • CoreOS 开源的分布式 KV 数据库 etcd,采用了 Raft 算法。
  • Apache 开源的分布式应用协调服务 ZooKeeper,采用 ZAB 算法。

3.2 Paxos

3.2.1 简介

Paxos 算法是 Leslie Lamport ( LaTeX 发明者,图灵奖得主,分布式领域的世界级大师)提出的一种基于消息传递具有高度容错特性的共识算法。 Paxos 由 Leslie Lamport 于 1998 年在《The Part-Time Parliament》论文中首次公开,最初的描述使用希腊的一个名为 Paxos 的小岛作为比喻,描述了 Paxos 小岛中法律通过表决的流程,并以此命名该算法。Paxos 算法基本思想并不复杂,但最初论文描述比较难懂,于是后来在 2001 年,Lamport 重新发表了朴实的算法描述版本《Paxos Made Simple》 进行重新解释。

Paxos 是首个得到证明并被广泛应用的共识算法,其原理类似于二阶段提交算法,进行了泛化和扩展,通过消息传递来逐步消除系统中的不确定状态。

3.2.2 地位

Google Chubby 的作者 Mike Burrows 说过,there is only one consensus protocol, and that’s Paxos” – all other approaches are just broken versions of Paxos. 意即世上只有一种共识算法,那就是 Paxos,其他所有的共识算法都只是 Paxos 算法的残缺版本。

虽然言之武断,但 Paxos 自问世以来一致垄断着分布式共识算法,Paxos 这个名词几乎等同于分布式一致性。Google 的很多大型分布式系统都采用了 Paxos 算法来解决分布式一致性问题,如 Chubby、Megastore 以及 Spanner 等。开源的 ZooKeeper,以及 MySQL 5.7 推出的用来取代传统的主从复制的 MySQL Group Replication 等纷纷采用 Paxos 算法解决分布式一致性问题。

后来很多著名的共识算法,如 Raft、ZAB 等,也都是以 Paxos 为基础。

Lamport 作为分布式系统领域的早期研究者,因为相关杰出贡献获得了 2013 年度图灵奖。

3.2.3 解决的问题

分布式系统中的节点通信存在两种模型:

  • 共享内存(Shared memory)
  • 消息传递(Messages passing)。

基于消息传递通信模型的分布式系统,不可避免地会发生以下错误:进程可能会慢、被杀死或者重启,消息可能会延迟、丢失、重复。在最普通的 Paxos 场景中,先不考虑可能出现“消息篡改”(即拜占庭将军问题)。Paxos 算法解决的问题是在一个可能发生上述异常(即排除消息篡改之外的其他任何异常)的分布式系统中,如何对某个值的看法达成一致。

一个典型的场景是,在一个分布式数据库系统中,如果各节点的初始状态一致,每个节点都执行相同的操作序列,那么他们最后能得到一个一致的状态。为保证每个节点执行相同的命令序列,需要在每一条指令上执行一个“共识算法”以保证每个节点看到的指令一致。一个通用的共识算法可以应用在许多场景中,是分布式计算中的重要问题。因此从 20 世纪 80 年代起对于共识算法的研究就没有停止过。

Paxos 算法运行在允许宕机故障的异步系统中,不要求可靠的消息传递,可容忍消息丢失、延迟、乱序以及重复。它利用保证了 2F+1 的容错能力,即 2F+1 个节点的系统最多允许 F 个节点同时出现故障。

3.2.4 相关概念

业界一般将 Lamport 论文里最初提出分布式算法称之为 Basic Paxos,这是 Paxos 最基础的算法思想。

Basic Paxos 的最终目标是通过严谨和可靠的流程来使得集群基于某个提案(Proposal)达到最终的共识。

Lamport 为了形象地描述算法,在 Basic Paxos 中将系统节点划分为三种角色:

  • 提议者(Proposer),提出提案(Proposal),提案拥有一个自增的唯一编号,可以表示为 <提案编号,提案内容>。
  • 接受者(Acceptor),负责对提案进行投票,接受(Accept)提案。若提案获得多数 Acceptors 的接受,则称该提案被批准(Chosen)。被批准的提案称为决议。接受者不同意比自己以前接收过的提案编号要小的提议,其他提案都同意。
  • 学习者(Learner),不参与投票,获取被批准的提案内容,并帮忙传播。

关于提案有如下相关概念:

  • Proposal:集群需要达成共识的提案,提案 = 编号 + 值。
  • Number:提案编号,全局唯一,单调递增。
  • Value:提案值,是一个抽象的概念,在工程实践中可以是任何操作,如更新数据库某一行的某一列、选择某个节点作为集群中的主节点等。

3.2.5 基本原理

Paxos 基本思路类似二阶段提交:多个提议者先要争取到提议的权利(得到大多数接受者的支持);成功的提议者发送提议给所有人进行确认,得到大部分人确认的提议成为被批准的决议。

Paxos 并不保证系统总处在一致的状态。但由于每次达成共识至少有超过一半的节点参与,这样最终整个系统都会获知共识结果。一个潜在的问题是提议者在提议过程中出现故障,这可以通过超时机制来缓解。极为凑巧的情况下,每次新一轮提议的提议者都恰好故障,又或者两个提议者恰好依次提出更新的提议,则导致活锁,系统会永远无法达成共识(实际发生概率很小)。

Paxos 能保证在超过一半的节点正常工作时,系统总能以较大概率达成共识。读者可以试着自己设计一套非拜占庭容错下基于消息传递的异步共识方案,会发现在满足各种约束情况下,算法过程总会十分类似 Paxos 的过程。这也是为何 Google Chubby 的作者 Mike Burrows 说:“这个世界上只有一种一共识算法,那就是 Paxos”。

下面,由简单情况逐步推广到一般情况来探讨算法过程。

3.2.5.1 单提议者+多接受者

果系统中限定只允许某个特定节点是提议者,那么共识结果很容易能达成(只有一个方案,要么达成,要么失败)。提议者只要收到了来自多数接受者的投票,即可认为通过,因为系统中不存在其他的提议。 但此时一旦提议者故障,则整个系统无法工作。

3.2.5.2 多提议者+单接受者

限定某个特定节点作为接受者。这种情况下,共识也很容易达成,接受者收到多个提议,选第一个提议作为决议,发送给其它提议者即可。

缺陷也是容易发生单点故障,包括接受者故障或首个提议者节点故障。

以上两种情形其实类似主从模式,虽然不那么可靠,但因为原理简单而被广泛采用。

当提议者和接受者都推广到多个的情形,会出现一些挑战。

3.2.5.3 多提议者+多接受者

既然限定单提议者或单接受者都会出现故障,那么就得允许出现多个提议者和多个接受者。问题一下子变得复杂了。

一种情况是同一时间片段(如一个提议周期)内只有一个提议者,这时可以退化到单提议者的情形。需要设计一种机制来保障提议者的正确产生,例如按照时间、序列、或者大家猜拳(出一个参数来比较)之类。考虑到分布式系统要处理的工作量很大,这个过程要尽量高效,满足这一条件的机制非常难设计。

另一种情况是允许同一时间片段内可以出现多个提议者。那同一个节点可能收到多份提议,怎么对它们进行区分呢?如果一个节点只接受它收到的首个提议,将导致不同节点可能接受不同的提议。很自然地,提议需要带上不同的序号。节点根据序号来判断接受哪个提议。通常采用递增序号,选择接受序号最大的提议。这是因为旧提议可能基于过期数据,导致失败概率更大。

如何为提议分配序号呢?一种可能方案是每个节点的提议数字区间彼此隔离开,互相不冲突。为了满足递增的需求可以配合用时间戳作为前缀字段。

同时允许多个提议,意味着很可能单个提议人无法集齐足够多的投票;另一方面,提议者即便收到了多数接受者的投票,也不敢说就一定通过。因为在此过程中投票者无法获知其它投票人的结果,也无法确认提议人是否收到了自己的投票。因此,需要实现两个阶段的提交过程。

3.2.5.4 二阶段提交

提议者发出提议申请之后,会收到来自接受者的反馈。一种结果是提议被大多数接受者接受了,一种结果是没被接受。没被接受的话,可以过会再重试。即便收到来自大多数接受者的答复,也不能认为就最终确认了。因为这些接受者自己并不知道自己刚答复的提议可以构成大多数的一致意见。

很自然的,需要引入新的一个阶段,即提议者在第一阶段拿到所有的反馈后,需要再次判断这个提议是否得到大多数的支持,如果支持则需要对其进行最终确认。

Paxos 里面对这两个阶段分别命名为准备(Prepare)和提交(Commit)。准备阶段通过锁来解决对哪个提议内容进行确认的问题,提交阶段解决大多数确认最终值的问题。

  • 提议者向多个接受者发送计划提交的提议编号 n,试探是否可以锁定多数接受者的支持;
  • 接受者 i 收到提议编号 n,检查回复过的提议的最大编号 M_i。如果 n > M_i,则向提议者返回准备接受(accept)提交的最大编号的提议 P_i(如果还未接受过任何提议,则为空),并不再接受小于 n 的提议,同时更新 M_i = n。这一步是让接受者筛选出它收到的最大编号的提议,接下来只接受其后续提交。

  • 某个提议者如果收到大多数接受者的回复(表示大部分人收到了 n),则准备发出带有 n 的提交消息。如果收到的回复中带有提议 P_i(说明自己看到的信息过期),则将编号 P_i 的值作为提议值;否则指定一个新提议值。如果没收到大多数回复,则再次发出请求;
  • 接受者 i 收到序号为 n 的提交消息,如果发现 n >= P_i 的序号,则接受提议,并更新 P_i 序号为 n。

一旦多数接受者接受了共同的提议值,则形成决议。之后可以开始新一轮的提交确认。

需要注意,Paxos 并不一定能保证每一轮都能提交提议。

3.2.6 算法流程

Paxos 算法通过一个决议分为两个阶段(Learn 阶段之前决议已经形成):

第一阶段:Prepare 阶段。Proposer 向 Acceptors 发出 Prepare 请求,Acceptors 针对收到的 Prepare 请求进行 Promise 承诺。

第二阶段:Accept 阶段。Proposer 收到多数 Acceptors 承诺的 Promise 后,向 Acceptors 发出 Propose 请求,Acceptors 针对收到的Propose 请求进行 Accept 处理。

第三阶段:Learn 阶段。Proposer 在收到多数 Acceptors 的 Accept 之后,标志着本次 Accept 成功,决议形成,将形成的决议发送给所有 Learners。

Paxos 算法流程中的每条消息描述如下:

  • Prepare: Proposer 生成全局唯一且递增的 Proposal ID (可使用时间戳加 Server ID),向所有 Acceptors 发送 Prepare 请求,这里无需携带提案内容,只携带 Proposal ID 即可。
  • Promise: Acceptors 收到 Prepare 请求后,做出“两个承诺,一个应答”

两个承诺:

  1. 不再接受 Proposal ID 小于等于(注意:这里是<= )当前请求的 Prepare 请求。
  2. 不再接受 Proposal ID 小于(注意:这里是< )当前请求的 Propose 请求。

一个应答:

  1. 不违背以前作出的承诺下,回复已经 Accept 过的提案中 Proposal ID 最大的那个提案的 Proposal ID 和 Value,没有则返回空值。
  • Propose: Proposer 收到多数 Acceptors 的 Promise 应答后,从应答中选择 Proposal ID 最大的提案的 Value,作为本次要发起的提案。如果所有应答的提案 Value 均为空值,则可以自己随意决定提案 Value。然后携带当前 Proposal ID,向所有 Acceptors 发送 Propose 请求。
  • Accept: Acceptor 收到 Propose 请求后,在不违背自己之前作出的承诺下,接受并持久化当前 Proposal ID 和提案 Value。
  • Learn: Proposer 收到多数 Acceptors 的 Accept 后,决议形成,将形成的决议发送给所有 Learners。

Paxos 算法伪代码描述如下:

  1. 获取一个 Proposal ID n,为了保证 Proposal ID 唯一,可采用“时间戳+Server ID”生成;
  2. Proposer 向所有 Acceptors 广播 Prepare(n) 请求;
  3. Acceptor 比较 n 和 minProposal,如果 n>minProposal,minProposal=n,并且将 acceptedProposal 和 acceptedValue 返回;
  4. Proposer 接收到过半数回复后,如果发现有 acceptedValue 返回,将所有回复中 acceptedProposal 最大的 acceptedValue 作为本次提案的 value,否则可以任意决定本次提案的 value;
  5. 到这里可以进入第二阶段,广播 Accept (n,value) 到所有节点;
  6. Acceptor 比较 n 和 minProposal,如果 n>=minProposal,则 acceptedProposal=minProposal=n,acceptedValue=value,本地持久化后,返回;否则,返回 minProposal。
  7. 提议者接收到过半数请求后,如果发现有返回值 result >n,表示有更新的提议,跳转到1;否则 value 达成一致。

3.2.7 算法示例

根据上面的 Paxos 的流程描述,下面举几个例子。

  • 实例 1 图中 P 代表 Prepare 阶段,A 代表 Accept 阶段。3.1 代表 Proposal ID 为 3.1,其中 3 为时间戳,1 为 Server ID。X 和 Y 代表提议 Value。

实例 1 中 P 3.1 达成多数派,其 Value(X) 被 Accept,然后 P 4.5 学习到 Value(X),并 Accept。

  • 实例 2 图中 P 3.1 没有被多数派 Accept(只有 S3 Accept),但是被 P 4.5 学习到,P 4.5 将自己的 Value 由 Y 替换为 X,Accept(X)。

  • 实例 3 图中 P 3.1 没有被多数派 Accept(只有 S1 Accept),同时也没有被 P 4.5 学习到。由于 P 4.5 Propose 的所有应答,均未返回 Value,则 P 4.5 可以 Accept 自己的 Value (Y)。后续 P 3.1 的 Accept (X) 会失败,已经 Accept 的 S1,会被覆盖。

3.2.8 活锁问题

Paxos 算法可能形成活锁而永远不会结束,如下图实例所示: 回顾两个承诺之一,Acceptor 不再应答 Proposal ID 小于等于当前请求的 Prepare 请求。意味着需要应答 Proposal ID 大于当前请求的 Prepare 请求。

两个 Proposers 交替 Prepare 成功,而 Accept 失败,形成活锁(Livelock)。

3.2.9 小结

Paxos 算法虽然给出了共识设计,但并没有讨论太多实现细节,也并不重视工程上的优化。此外原始的 Paxos 算法(Basic Paxos)只能对一个值形成决议,决议的形成至少需要两次网络来回,在高并发情况下可能需要更多的网络来回,极端情况下甚至可能形成活锁。

因此后来在学术界和工程界出现了一些改进工作,包括 Fast Paxos、Multi-Paxos,Zookeeper Atomic Broadcast(ZAB)和 Raft 等。这些算法重点在于改进执行效率和可实现性。

3.3 Multi-Paxos

3.3.1 背景

自 Lamport 于 1990 年在论文《The PartTime Parliament》中提出 Paxos 算法之后,这个算法一直被评价为难以理解和实现,这篇论文中运用了大量的数学对 Paxos 的原理进行证明,而又由于 Lamport 在论文里用讲故事的形式解释 Paxos,进一步增大了人们彻底理解 Paxos 的难度,事实上 Lamport 的这篇论文也因此在发表过程中一波三折,这里不展开,有兴趣的读者可以自行去了解这段这段背景故事。

因为业界在理解 Paxos 算法上持续的怨声载道,Lamport 在 2001 年发表了论文《Paxos Made Simple》,对原论文进行精简,以更通俗易懂的语言和形式阐述 Paxos 算法,并在其中提出了更加具备工程实践性的 Multi-Paxos 的思想。 从

关于 Paxos 难以理解的问题上,我个人的一点愚见是:Paxos 算法的思想其实并不难理解,真正难的地方是:

  • Paxos 背后那一套完整的数学原理和证明
  • 在复杂分布式环境将 Paxos 进行工程落地

个人建议的 Paxos 学习资料是:《Paxos Made Simple》,《Paxos Made Live - An Engineering Perspective》以及 Paxos lecture (Raft user study)。第一篇论文可以说是 Lamport 1990 年那篇最初的论文的精简版,可读性提高了很多,论文里也没有使用任何数学公式,只需一点英文基础就可以通读,第二篇论文讲的则是 Google 内部基于 Multi-Paxos 实现的分布式锁机制和小文件存储系统,这是业界较早的实现了 Multi-Paxos 的大规模线上系统,十分具有参考性,最后的 Youtube 视频则是 Raft 的作者 Diego Ongaro 为了对比 Raft 和 Multi-Paxos 的学习的难易程度而做的,非常适合作为学习 Paxos 和 Raft 的入门资料。

3.3.2 改进

上一节可知 Basic Paxos 算法有几个天然缺陷:

  • 只能就单个值(Value)达成共识,不支持多值共识。在实际的工程实践中往往是需要对一系列的操作达成共识,比如分布式事务,由很多执行命令组成。
  • 至少需要 2 轮往返 4 次 prepare 和 accept 网络通信才能基于一项提案达成共识。对于一个分布式系统来说,网络通信是最影响性能的因素之一,过多的网络通信往往会导致系统的性能瓶颈。
  • 不限制 Proposer 数量导致非常容易发生提案冲突。极端情况下,多 Proposer 会导致系统出现『活锁』,破坏分布式共识算法的两大约束之一的活性(liveness)。

为了解决这些问题,Lamport 在《Paxos Made Simple》论文中提出了一种基于 Basic Paxos 的 Multi-Paxos 算法。

Multi-Paxos 基于 Basic Paxos 做了两点改进:

  • 针对每一个要确定的值,运行一次 Paxos 算法实例(Instance),形成决议。每一个 Paxos 实例使用唯一的 Instance ID 标识。

  • 在所有 Proposers 中选举一个 Leader,由 Leader 唯一地提交 Proposal 给 Acceptors 进行表决。这样没有 Proposer 竞争,解决了活锁问题。在系统中仅有一个 Leader 进行 Value 提交的情况下,Prepare 阶段就可以跳过,从而将两阶段变为一阶段,提高效率。

Multi-Paxos 首先需要选举 Leader,Leader 的确定也是一次决议的形成,所以可执行一次 Basic Paxos 实例来选举出一个 Leader。选出 Leader 之后只能由 Leader 提交 Proposal,在 Leader 宕机之后服务临时不可用,需要重新选举 Leader 继续服务。在系统中仅有一个 Leader 进行 Proposal 提交的情况下,Prepare 阶段可以跳过。

Multi-Paxos 通过改变 Prepare 阶段的作用范围至后面 Leader 提交的所有实例,从而使得 Leader 的连续提交只需要执行一次 Prepare 阶段,后续只需要执行 Accept 阶段,将两阶段变为一阶段,提高了效率。为了区分连续提交的多个实例,每个实例使用一个 Instance ID 标识,Instance ID 由 Leader 本地递增生成即可。

Multi-Paxos 允许有多个自认为是 Leader 的节点并发提交 Proposal 而不影响其安全性,这样的场景即退化为 Basic Paxos。

3.3.3 小结

在分布式事务中,Paxos 算法能够提供比两阶段提交协议更加可靠的一致性提交:通过将提交/放弃事务的决定从原来两阶段协议中单一的协调者转移到一个由 Proposer + Acceptors 组成的集群中。Lamport 曾经发表过一篇《Consensus on Transaction Commit》的论文,通过将两阶段提交协议和基于 Paxos 实现的分布式提交协议做对比,对基于 Paxos 实现的提交协议有非常精彩的论述,感兴趣的读者不妨一读。

3.4 Raft

3.4.1 简介

Raft 是 Multi-Paxos 的一个变种,由斯坦福大学的 Diego Ongaro 和 John Ousterhout 于 2014 年在论文《In Search of an Understandable Consensus Algorithm》中提出。

Raft 算法的主要设计思想与 ZAB 类似,通过先选出领导节点来简化流程和提高效率。实现上解耦了领导者选举、日志复制和安全方面的需求,并通过约束减少了不确定性的状态空间。

Raft 算法的开源实现众多,在 Go、C++、Java 以及 Scala 中都有完整的代码实现。Raft 这一名字来源于 “Reliable, Replicated, Redundant, And Fault-Tolerant”(“可靠、可复制、可冗余、可容错”)的首字母缩写。

3.4.2 概述

不同于 Paxos 算法直接从分布式一致性问题出发推导出来,Raft 算法则是从多副本状态机的角度提出,用于管理多副本状态机的日志复制。Raft 实现了和 Paxos 相同的功能,它将一致性分解为多个子问题:

  • Leader 选举(Leader election)
  • 日志同步(Log replication)
  • 安全性(Safety)
  • 日志压缩(Log compaction)
  • 成员变更(Membership change)等

同时,Raft 算法新增两个约束,使之变的易于理解和实现。

  • Raft 中追加节点的日志必须是串行连续的,而 Multi-Paxos 中则可以并发追加日志(实际上 Multi-Paxos 的并发也只是针对日志追加,最后应用到内部 State Machine 的时候还是必须保证顺序)。
  • Raft 中只有那些拥有最新、最全日志的节点才能当选 Leader 节点,而 Multi-Paxos 由于允许并发写日志,因此无法确定一个拥有最新、最全日志的节点,因此可以选择任意一个节点作为 Leader,但是选主之后必须要把 Leader 节点的日志补全。

基于这两个限制,Raft 算法的实现比 Multi-Paxos 更加简单易懂,不过由于 Multi-Paxos 的并发度更高,因此从理论上来说 Multi-Paxos 的性能会更好一些,但是到现在为止业界也没有一份权威的测试报告来支撑这一观点。

Raft 将系统中的角色分为:

  • Leader:接受客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后告诉 Follower 提交日志。
  • Follower:接受并持久化 Leader 同步的日志,在 Leader 告之日志可以提交之后,提交日志。
  • Candidate:Leader 选举过程中的临时角色。

Raft 要求系统在任意时刻最多只有一个 Leader,正常工作期间只有 Leader 和 Followers。

Raft 算法角色状态转换如下: Follower 只响应其他服务器的请求。如果 Follower 超时没有收到 Leader 的消息,它会成为一个 Candidate 并且开始一次 Leader 选举。收到大多数服务器投票的 Candidate 会成为新的 Leader。Leader 在宕机之前会一直保持 Leader 的状态。 Raft 算法将时间分为一个个的任期(term),每一个 term 的开始都是 Leader 选举。在成功选举 Leader 之后,Leader 会在整个 term 内管理整个集群。如果 Leader 选举失败,该 term 就会因为没有 Leader 而结束。

3.4.3 Leader 选举

每个 Follower 都持有一个定时器,Leader 存在时会向所有 Followers 周期性发送 heartbeat,来证明自己还活着。Follower 收到心跳后会回复 Leader 并清空定时器。

如果 Follower 在定时器时间到了而没有收到 Leader 的 heartbeat,那么认为 Leader 已死,那么该节点就会转变成 Candidate,进入下一轮Leader 选举。

Follower 将其当前 term 加一然后转换为 Candidate。它首先给自己投票并且给集群中的其他服务器发送 RequestVote RPC。结果有以下三种情况:

  • 赢得了多数的选票,成功选举为Leader;
  • 收到了 Leader 的消息,表示有其它服务器已经抢先当选了Leader;
  • 没有服务器赢得多数的选票,Leader 选举失败,等待选举时间超时后发起下一次选举。

选举出 Leader 后,Leader 通过定期向所有 Followers 发送心跳信息维持其统治。若 Follower 一段时间未收到 Leader 的心跳则认为 Leader可能已经挂了,再次发起 Leader 选举过程。

若出现两个 Candidate 同时选举并获得了相同的票数,那么这两个 Candidate 将随机推迟一段时间后再向其他节点发出投票请求,这保证了再次发送投票请求以后不冲突。

,这一点将在下面的安全性中说明。

3.4.4 日志同步

Leader 选出后,就开始接收客户端的请求。Leader 把请求作为日志条目(Log entries)加入到它的日志中,然后并行的向其他服务器发起 AppendEntries RPC 复制日志条目。当这条日志被复制到大多数服务器上,Leader 将这条日志应用到它的状态机并向客户端返回执行结果。 某些 Followers 可能没有成功的复制日志,Leader 会无限地重试 AppendEntries RPC 直到所有的 Followers 最终存储了所有的日志条目。

日志由有序编号(log index)的日志条目组成。每个日志条目包含它被创建时的任期号(term)和用于状态机执行的命令。如果一个日志条目被复制到大多数服务器上,就被认为可以提交(commit)了。

Raft 日志同步保证如下两点:

  • 如果不同日志中的两个条目有着相同的索引和任期号,则它们所存储的命令是相同的。
  • 如果不同日志中的两个条目有着相同的索引和任期号,则它们之前的所有条目都是完全一样的。

第一条特性源于 Leader 在一个 term 内在给定的一个 log index 最多创建一条日志条目,同时该条目在日志中的位置也从来不会改变。

第二条特性源于 AppendEntries 的一个简单的一致性检查。当发送一个 AppendEntries RPC 时,Leader 会把新日志条目紧接着之前的条目的 log index 和 term 都包含在里面。如果 Follower 没有在它的日志中找到 log index 和 term 都相同的日志,它就会拒绝新的日志条目。

一般情况下,Leader 和 Followers 的日志保持一致,因此 AppendEntries 一致性检查通常不会失败。然而,Leader 崩溃可能会导致日志不一致:旧的 Leader 可能没有完全复制完日志中的所有条目。 上图阐述了一些 Followers 可能和新的 Leader 日志不同的情况。一个 Follower 可能会丢失掉 Leader 上的一些条目,也有可能包含一些 Leader 没有的条目,也有可能两者都会发生。丢失的或者多出来的条目可能会持续多个任期。

Leader 通过强制 Followers 复制它的日志来处理日志的不一致,Followers 上的不一致的日志会被 Leader 的日志覆盖。

Leader 为了使 Followers 的日志同自己的一致,Leader 需要找到 Followers 同它的日志一致的地方,然后覆盖 Followers 在该位置之后的条目。

Leader 会从后往前试,每次 AppendEntries 失败后尝试前一个日志条目,直到成功找到每个 Follower 的日志一致位点,然后向后逐条覆盖Followers 在该位置之后的条目。

3.4.5 安全性

Raft 增加了如下两条限制以保证安全性:

  • 拥有最新的的 log entry 的 Follower 才有资格成为 Leader。

这个保证是在 RequestVote RPC 中做的,Candidate 在发送 RequestVote RPC 时,要带上自己的最后一条日志的 term 和 log index,其他节点收到消息时,如果发现自己的日志比请求中携带的更新,则拒绝投票。日志比较的原则是,如果本地的最后一条 log entry 的 term 更大,则 term 大的更新,如果 term 一样大,则 log index 更大的更新。

  • Leader 只能推进 commit index 来提交当前 term 的已经复制到大多数服务器上的日志,旧 term 日志的提交要等到提交当前 term 的日志来间接提交(log index 小于 commit index 的日志被间接提交)。

之所以要这样,是因为可能会出现已提交的日志又被覆盖的情况: 在阶段 a,term 为 2,S1 是Leader,且 S1 写入日志(term, index)为 (2, 2),并且日志被同步写入了 S2;

在阶段 b,S1 离线,触发一次新的选主,此时 S5 被选为新的 Leader,此时系统 term 为 3,且写入了日志(term, index)为 (3, 2);

S5 尚未将日志推送到 Followers 就离线了,进而触发了一次新的选主,而之前离线的 S1 经过重新上线后被选中变成 Leader,此时系统 term 为 4,此时 S1 会将自己的日志同步到 Followers,按照上图就是将日志 (2, 2) 同步到了 S3,而此时由于该日志已经被同步到了多数节点(S1, S2, S3),因此,此时日志 (2, 2) 可以被提交了。

在阶段 d,S1 又下线了,触发一次选主,而 S5 有可能被选为新的 Leader。这是因为 S5 可以满足作为主的一切条件:

  • term = 5 > 4
  • 最新的日志为 (3, 2),比大多数节点(如 S2/S3/S4 的日志都新)

然后 S5 会将自己的日志更新到 Followers,于是 S2、S3 中已经被提交的日志 (2, 2) 被截断了。

增加上述限制后,即使日志 (2, 2) 已经被大多数节点(S1、S2、S3)确认了,但是它不能被提交,因为它是来自之前 term(2) 的日志,直到 S1 在当前 term(4) 产生的日志被大多数 (4, 4) Followers 确认,S1 方可提交日志 (4, 4) 这条日志。当然,根据 Raft 定义,(4, 4) 之前的所有日志也会被提交。此时即使 S1 再下线,重新选主时 S5 不可能成为 Leader,因为它没有包含大多数节点已经拥有的日志 (4, 4)。

3.4.6 日志压缩

在实际的系统中,不能让日志无限增长,否则系统重启时需要花很长的时间进行回放,从而影响可用性。Raft采用对整个系统进行snapshot来解决,snapshot之前的日志都可以丢弃。

每个副本独立的对自己的系统状态进行snapshot,并且只能对已经提交的日志记录进行snapshot。

Snapshot 中包含以下内容:

  • 日志元数据。最后一条已提交的 log entry的 log index和term。这两个值在 snapshot 之后的第一条 log entry 的 AppendEntries RPC 的完整性检查的时候会被用上。
  • 系统当前状态。

当 Leader 要发给某个日志落后太多的 Follower 的 log entry 被丢弃,Leader 会将 snapshot 发给 Follower。或者当新加进一台机器时,也会发送 snapshot 给它。发送 snapshot 使用 InstalledSnapshot RPC。

做 snapshot 既不要做的太频繁,否则消耗磁盘带宽, 也不要做的太不频繁,否则一旦节点重启需要回放大量日志,影响可用性。推荐当日志达到某个固定的大小做一次 snapshot。

做一次 snapshot 可能耗时过长,会影响正常日志同步。可以通过使用 copy-on-write 技术避免 snapshot 过程影响正常日志同步。

3.4.7 成员变更

成员变更是在集群运行过程中副本发生变化,如增加/减少副本数、节点替换等。

成员变更也是一个分布式一致性问题,既所有服务器对新成员达成一致。但是成员变更又有其特殊性,因为在成员变更的一致性达成的过程中,参与投票的进程会发生变化。

如果将成员变更当成一般的一致性问题,直接向 Leader 发送成员变更请求,Leader 复制成员变更日志,达成多数派之后提交,各服务器提交成员变更日志后从旧成员配置(Cold)切换到新成员配置(Cnew)。

因为各个服务器提交成员变更日志的时刻可能不同,造成各个服务器从旧成员配置(Cold)切换到新成员配置(Cnew)的时刻不同。

成员变更不能影响服务的可用性,但是成员变更过程的某一时刻,可能出现在 Cold 和 Cnew 中同时存在两个不相交的多数派,进而可能选出两个Leader,形成不同的决议,破坏安全性。

为了解决这一问题,Raft 提出了两阶段的成员变更方法。集群先从旧成员配置 Cold 切换到一个过渡成员配置,称为共同一致(joint consensus),共同一致是旧成员配置 Cold 和新成员配置 Cnew 的组合 Cold U Cnew,一旦共同一致 Cold U Cnew 被提交,系统再切换到新成员配置 Cnew。 Raft 两阶段成员变更过程如下:

  1. Leader 收到成员变更请求从 Cold 切成 Cold,new;
  2. Leader 在本地生成一个新的 log entry,其内容是 Cold∪Cnew,代表当前时刻新旧成员配置共存,写入本地日志,同时将该 log entry 复制至 Cold∪Cnew 中的所有副本。在此之后新的日志同步需要保证得到 Cold 和 Cnew 两个多数派的确认;
  3. Follower 收到 Cold∪Cnew 的 log entry 后更新本地日志,并且此时就以该配置作为自己的成员配置;
  4. 如果 Cold 和 Cnew 中的两个多数派确认了 Cold U Cnew 这条日志,Leader 就提交这条 log entry 并切换到 Cnew;
  5. 接下来 Leader 生成一条新的 log entry,其内容是新成员配置 Cnew,同样将该 log entry 写入本地日志,同时复制到 Follower 上;
  6. Follower 收到新成员配置 Cnew 后,将其写入日志,并且从此刻起,就以该配置作为自己的成员配置,并且如果发现自己不在 Cnew 这个成员配置中会自动退出;
  7. Leader 收到 Cnew 的多数派确认后,表示成员变更成功,后续的日志只要得到Cnew多数派确认即可。Leader给客户端回复成员变更执行成功。

异常分析:

  • 如果 Leader 的 Cold U Cnew 尚未推送到 Follower,Leader 就挂了,此后选出的新 Leader 并不包含这条日志,此时新Leader依然使用Cold作为自己的成员配置。
  • 如果 Leader 的 Cold U Cnew 推送到大部分的 Follower 后就挂了,此后选出的新 Leader 可能是 Cold 也可能是 Cnew 中的某个 Follower。
  • 如果 Leader 在推送 Cnew 配置的过程中挂了,那么同样,新选出来的 Leader 可能是 Cold 也可能是 Cnew 中的某一个,此后客户端继续执行一次改变配置的命令即可。
  • 如果大多数的 Follower 确认了 Cnew 这个消息后,那么接下来即使 Leader 挂了,新选出来的 Leader 肯定位于 Cnew 中。

两阶段成员变更比较通用且容易理解,但是实现比较复杂,同时两阶段的变更协议也会在一定程度上影响变更过程中的服务可用性,因此我们期望增强成员变更的限制,以简化操作流程。

两阶段成员变更,之所以分为两个阶段,是因为对 Cold 与 Cnew 的关系没有做任何假设,为了避免 Cold 和 Cnew 各自形成不相交的多数派选出两个 Leader,才引入了两阶段方案。

如果增强成员变更的限制,假设 Cold 与 Cnew 任意的多数派交集不为空,这两个成员配置就无法各自形成多数派,那么成员变更方案就可能简化为一阶段。

那么如何限制 Cold 与 Cnew,使之任意的多数派交集不为空呢?方法就是每次成员变更只允许增加或删除一个成员。

可从数学上严格证明,只要每次只允许增加或删除一个成员,Cold 与 Cnew 不可能形成两个不相交的多数派。

一阶段成员变更:

  • 成员变更限制每次只能增加或删除一个成员(如果要变更多个成员,连续变更多次)。
  • 成员变更由 Leader 发起,Cnew 得到多数派确认后,返回客户端成员变更成功。
  • 一次成员变更成功前不允许开始下一次成员变更,因此新任 Leader 在开始提供服务前要将自己本地保存的最新成员配置重新投票形成多数派确认。
  • Leader 只要开始同步新成员配置,即可开始使用新的成员配置进行日志同步。

3.4.8 Raft 与 Multi-Paxos 的异同

Raft 与 Multi-Paxos 都是基于领导者的共识算法,乍一看有很多地方相同,下面总结一下 Raft 与 Multi-Paxos 的异同。

Raft 与 Multi-Paxos 中相似的概念: Raft 与 Multi-Paxos 的不同:

3.4.9 脑裂问题

若集群中出现网络异常,导致集群被分割,在不同的网络分区里会因为无法接收到原来的 Leader 发出的心跳而超时选主,这样将出现多个 Leader,即脑裂(Split Brain)。

下图中网络分区 1 的节点 A 是新产生的 Leader,因为有大多数节点可以投票,将其选为 Leader。 在网络分区 1 和网络分区 2 中,出现了两个 Leader A 和 D。假设此时要更新分区 2 的值,因为分区 2 无法得到集群中的大多数节点的 ACK,会复制失败。而网络分区 1 会成功,因为分区 1 中的节点更多,Leader A 能得到大多数回应。

Raft 是能够应对脑裂问题的,以上面的脑裂为例:

  • 如果更新请求到达少数节点的网络分区 2 是不会更新成功,因为得不到大多数节点的支持
  • 如果更新请求到达大多数网络分区 1 会更新成功,因为得到大多数节点的支持
  • 如果此时网络恢复了,旧 Leader 发现自己 term 落后而自动成为 Follower。新 Leader 将新日志同步给所有节点,集群重新达到一致性状态

所以要么是避免脑裂选主,要么是脑裂后老 Leader 自动降级为 Follower。Raft 是通过后者来解决脑裂的问题。当然最好的办法还是在节点之间加一个专线,降低出现分区的概率。

3.4.10 FAQ

(1)leader 在 commit 了一条日志后,立刻挂了,那其他节点如何处理这条日志?

选举出的新 leader 拥有最新的日志,新 leader 会先检查未提交的 log 有没有查过半数,如果有然后 leader 会 commit,follower commit。

(2)未 commit 的日志客户端能查询到吗?

不能。

(3)半数确认机制不能保证所有结点全部拥有最新日志,那么查询岂不是会出现不一致?

不会,如果某个节点查询不到,再将请求转发到 Leader,从 Leader 节点来查。因为 Leader 节点保存有所有 commited 的 log。

3.4.11 小结

Raft 算法具备强一致、高可靠、高可用、高性能等优点,具体体现在:

  • 强一致性:虽然所有节点的数据并非实时一致,但Raft算法保证Leader节点的数据最全,同时所有请求都由Leader处理,所以在客户端角度看是强一致性的。

  • 高可靠性:Raft 算法保证了 Committed 的日志不会被修改,State Matchine 只应用 Committed 的日志,所以当客户端收到请求成功即代表数据不再改变。Committed 日志在大多数节点上冗余存储,少于一半的磁盘故障数据不会丢失。

  • 高可用性:从 Raft 算法原理可以看出,选举和日志同步都只需要大多数的节点正常互联即可,所以少量节点故障或网络异常不会影响系统的可用性。即使 Leader 故障,在选举超时到期后,集群自发选举新 Leader,无需人工干预,不可用时间极小。但 Leader 故障时存在重复数据问题,需要业务去重或幂等性保证。

  • 高性能:与必须将数据写到所有节点才能返回客户端成功的算法相比,Raft 算法只需要大多数节点成功即可,少量节点处理缓慢不会延缓整体系统运行。

3.5 ZAB

3.5.1 简介

ZAB 全称是 Zookeeper Atomic Broadcast,即 Zookeeper 原子广播。

ZAB 是为分布式协调服务 Zookeeper 专门设计的一种支持协议,是 Zookeeper 保证数据一致性的核心算法。

3.5.2 三个角色

ZAB 中三个主要的角色,领导者(Leader)、跟随者(Follower)和观察者(Observer) 。

Leader :集群中唯一的写请求处理者 ,能够发起投票(投票也是为了进行写请求)。 Follower:能够接收客户端的请求,如果是读请求则可以自己处理,如果是写请求则要转发给 Leader 。在选举过程中会参与投票,有选举权和被选举权 。 Observer :就是没有选举权和被选举权的 Follower 。

基于该协议,Zookeeper 实现了一种主备模式的系统架构来保持集群中各个副本之间数据一致性。具体如下图所示:

上图显示了 Zookeeper 如何处理集群中的数据。所有客户端写入数据都是写入到 主进程(称为 Leader)中,然后,由 Leader 复制到备份进程(称为 Follower)中。从而保证数据一致性。从设计上看,和 Raft 类似。

那么复制过程又是如何的呢?复制过程类似 2PC(二阶段提交,Two Phase Commit),ZAB 只需要 Follower 有一半以上返回 Ack 信息就可以执行提交,大大减小了同步阻塞,也提高了可用性。

3.5.3 消息广播

ZAB 协议的消息广播过程使用的是一个原子广播协议,类似一个 二阶段提交过程。对于客户端发送的写请求,全部由 Leader 接收,Leader 将请求封装成一个事务 Proposal,将其发送给所有 Follwer ,然后,根据所有 Follwer 的反馈,如果超过半数成功响应,则执行 commit 操作(先提交自己,再发送 commit 给所有 Follwer)。

基本上,整个广播流程分为 3 步骤:

  • 将数据都复制到 Follwer 中。
  • 等待 Follwer 回应 Ack,最低超过半数即成功。
  • 当超过半数成功回应,则执行 commit ,同时提交自己。 通过以上 3 个步骤,就能够保持集群之间数据的一致性。实际上,在 Leader 和 Follwer 之间还有一个消息队列,用来解耦他们之间的耦合,避免同步,实现异步解耦。

还有一些细节:

  • Leader 在收到客户端请求之后,会将这个请求封装成一个事务,并给这个事务分配一个全局递增的唯一 ID,称为事务ID(ZXID),ZAB 兮协议需要保证事务的顺序,因此必须将每一个事务按照 ZXID 进行先后排序然后处理。
  • 在 Leader 和 Follwer 之间还有一个消息队列,用来解耦他们之间的耦合,解除同步阻塞。
  • Zookeeper 集群中为保证任何所有进程能够有序的顺序执行,只能是 Leader 服务器接受写请求,即使是 Follower 服务器接受到客户端的请求,也会转发到 Leader 服务器进行处理。
  • 实际上,这是一种简化版本的 2PC,不能解决单点问题。下面会讲述 ZAB 如何解决单点问题(即 Leader 崩溃问题)。

3.5.4 崩溃恢复

实际上,当 Leader 崩溃,即进入我们开头所说的崩溃恢复模式(崩溃即:Leader 失去与过半 Follwer 的联系)。下面来详细讲述。

  • 假设1:Leader 在复制数据给所有 Follwer 之后崩溃,怎么办?
  • 假设2:Leader 在收到 Ack 并提交了自己,同时发送了部分 commit 出去之后崩溃怎么办?

针对这些问题,ZAB 定义了 2 个原则:

  • ZAB 协议确保那些已经在 Leader 提交的事务最终会被所有服务器提交。
  • ZAB 协议确保丢弃那些只在 Leader 提出复制,但没有提交的事务。

所以,ZAB 设计了下面这样一个选举算法:能够确保提交已经被 Leader 提交的事务,同时丢弃已经被跳过的事务。

针对这个要求,如果让 Leader 选举算法能够保证新选举出来的 Leader 拥有集群中编号 ZXID 最大的事务,那么就能够保证这个新选举出来的 Leader 一定具有所有已经提交的提案。 而且这么做有一个好处是:可以省去 Leader 服务器检查事务的提交和丢弃工作的这一步操作。

这样,我们刚刚假设的两个问题便能够解决。

  • 假设 1 最终会丢弃调用没有提交的数据
  • 假设 2 最终会同步所有服务器的数据。

这个时候,就引出了一个问题,如何同步?

3.5.5 数据同步

当崩溃恢复之后,需要在正式工作之前(接收客户端请求),Leader 服务器首先确认事务是否都已经被过半的 Follwer 提交了,即是否完成了数据同步。目的是为了保持数据一致。 当所有的 Follwer 服务器都成功同步之后,Leader 会将这些服务器加入到可用服务器列表中。 实际上,Leader 服务器处理或丢弃事务都是依赖着 ZXID 的,那么这个 ZXID 如何生成呢?

在 ZAB 协议的事务编号 ZXID 设计中,ZXID 是一个 64 位的数字,其中低 32 位可以看作是一个简单的递增的计数器,针对客户端的每一个事务请求,Leader 都会产生一个新的事务 Proposal 并对该计数器进行 + 1 操作。 而高 32 位则代表了 Leader 服务器上取出本地日志中最大事务 Proposal 的 ZXID,并从该 ZXID 中解析出对应的 Epoch 值,然后再对这个值加一。 高 32 位代表了每代 Leader 的唯一性,低 32 代表了每代 Leader 中事务的唯一性。同时,也能让 Follwer 通过高 32 位识别不同的 Leader。简化了数据恢复流程。 基于这样的策略:当 Follower 连接上 Leader 之后,Leader 服务器会根据自己服务器上最后被提交的 ZXID 和 Follower 上的 ZXID 进行比对,比对结果要么回滚,要么和 Leader 同步。

3.5.6 脑裂问题

当集群因网络问题出现分区时, ZAB 过半机制一定程度上也减少了脑裂情况的出现,起码不会出现三个 leader 同时。但是如果原 Leader 被划分到少部分节点的分区中,那么大部分节点的分区因为缺少 Leader 而会选举出新的 Leader,整个集群出现了两个 Leader,这就是所谓的脑裂(Split-Brain)。

ZAB 和 Raft 一样,可以应对脑裂的问题:

  • 如果更新请求到达少数节点的分区是不会更新成功,因为得不到大多数节点的支持
  • 如果更新请求到达大多数节点的分区会更新成功,因为得到大多数节点的支持
  • 如果此时网络恢复了,旧 Leader 发现自己 epoch 标号(标识当前属于那个 Leader 的统治时期),这个 epoch 落后而自动成为 Follower。新 Leader 将新日志同步给所有节点,集群重新达到一致性状态

实际上,应该尽可能地防止脑裂,一般有下面几种方法:

  • 法定人数(Quorums) 比如 3 个节点的集群,Quorums = 2,也就是说集群可以容忍 1 个节点失效,这时候还能选举出 1 个 Leader,集群还可用。比如 4 个节点的集群,它的 Quorums = 3,相当于集群的容忍度还是 1,如果 2 个节点失效,那么整个集群是无效的,不会产生新的 Leader。这是 Zookeeper 防止脑裂默认采用的方法。

  • 冗余通信(Redundant communications) 集群中采用多种通信方式,防止一种通信方式失效导致集群中的节点无法通信。

  • 共享资源(Fencing) 比如能看到共享资源就表示在集群中,能够获得共享资源的锁的就是Leader,看不到共享资源的,就不在集群中。

  • 仲裁机制 脑裂导致的后果是从节点不知道该连接哪一台Leader,此时

标签: 压力变送器tm21

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台