Paxos协议是分布式系统设计中的一个非常重要的协议,本文转载自微信后台团队公众号团队所发表一系列Paxos的文章,中间针对自己的理解略有修改或注释。在此处做一个备份,一方面为了加深对Paxos协议的理解,另一方面也方便自己的后续查找,防止文章丢失。

1. Multi-Paxos

朴素Paxos算法通过多轮的Prepare/Accept过程来确定一个值,我们称这整个过程为一个Instance。Multi-Paxos是通过Paxos算法来确定很多个值,而且这些值的顺序在各个节点完全一致。概括来讲就是确定一个全局顺序。

多个Instance怎么运作?首先我们先构建最简易的模式,各个Instance独立运作。

paxos-single-instance

每个Instance独立运作一个朴素Paxos算法,我们保证仅当Instance i的值被确定后,方可进行i+1的Paxos算法,这样就保证了Instance的有序性。

但这样效率是比较差的,众所周知朴素Paxos算法的Latency很高,Multi-Paxos算法希望找到多个Instance的Paxos算法之间的联系,从而尝试在某些情况去掉Prepare步骤。

下面我尝试描述一个Sample的演进情况来阐述这个算法,因为这个算法的要点其实非常简单,而且无需更多证明。

首先我们定义Multi-Paxos的参与要素:

  • 3个参与节点A/B/C

  • Prepare(b): NodeA节点发起Prepare携带的编号

  • Promise(b): NodeA节点承诺的编号

  • Accept(b): NodeA节点发起Accept携带的编号

1(A)的意思是A节点产生的编号1, 2(B)标识编号2由节点B产生。绿色表示Accept通过,红色表示拒绝。

下图描述了A/B/C三个节点并进行提交的演进过程

paxos-multi-evolution

这种情况下NodeA节点几乎每个Instance都收到其他节点发来的Prepare,导致Promise编号过大,迫使自己不断提升编号来Prepare。这种情况并未能找到任何的优化突破口。

下图描述了只有A节点提交的演进过程

paxos-multi-a

这种情况我们会立即发现,在没有其他节点提交的干扰下,每次Prepare的编号都是一样的。于是乎我们想,为何不把Promised(b)变成全局的? 来看下图:

paxos-multi-b

假设我们在Instance i进行Prepare(b),我们要求对这个b进行Promise的生效范围是Instance[i,+∞),那么在i之后我们就无需做任何Prepare了。可想而知,假设上图Instance 1之后都没有任何除NodeA之外其他节点的提交,我们就可以预期接下来NodeA的Accept都是可以通过的。那么这个去(除)Prepare状态什么时候打破?我们来看有其他节点进行提交的情况:

paxos-multi-c

Instance 4出现了B的提交,使得Promise(b)变成了2(B),从而导致NodeA的Accept被拒绝。而NodeA如何继续提交? 必须得提高自己的Prepare编号从而抢占Promised(b)。这里出现了很明显的去Prepare的窗口期Instance[1,3],而这种期间很明显的标志就是只有一个节点在提交。

重点: 不Prepare直接Accept为啥是安全的? 因为Accept的b已经被Promise过。
总结

Multi-Paxos通过改变Promise(b)的生效范围至全局Instance,从而使得一些唯一节点的连续提交获得去Prepare的效果。

题外话:这里提一下我所观察到的Multi-Paxos的一个误区,很多人认为Multi-Paxos是由leader驱动去掉Prepare的,更有说在有Leader的情况下才能完成Multi-Paxos算法,这都是理解有误。大家看到这里也应该明白这里的因果关系,Multi-Paxos是适用某种请求特征情况下的优化,而不是要求请求满足这种特征。所以Multi-Paxos接受并行提交。

2. Leader

为何还要说Leader, 虽然Multi-Paxos允许并行提交,但这种情况下效率是要退化到朴素Paxos的,所以我们并不希望长时间处于这种情况。Leader的作用是希望大部分时间都只有一个节点在提交,这样才能发挥Multi-Paxos的优化效果。

怎么得到一个Leader,真的非常之简单,Lamport的论文甚至的不屑一提。我们观察Multi-Paxos算法,首先能做Accept(b)必然b已经被Promise了,而连续的Accept(b)被打断,必然是由于Promise(b)被提升了,也就是出现了其他节点的提交(提交会先Prepare从而提升b)。那么重点来了,如何避免其他节点进行提交,我们只需要做一件事即可完成:

收到来自其他节点的Accept,则进行一段时间的拒绝提交请求

这个解读起来就是各个节点都想着不要去打破这种连续的Accept状态,而当有一个节点在连续的Accept,那么其他节点必然持续不断的拒绝请求。这个Leader就这样无形的被产生出来了,我们压根没有刻意去选举,它就是来自于Multi-Paxos算法。

题外话: 为何网上出现很多非常复杂的选举Leader算法,有的甚至利用Paxos算法去选举Leader,我觉得他们很有可能是没有完全理解Multi-Paxos,走入了必须有Leader的误区

用Paxos来进行选举是有意义的,但不应该用在Leader上面。Paxos的应用除了写之外,还有很重要的一环就是读,很多时候我们希望要读到Latest,通常的做法就是选举一个Master。Master的含义是在任一时刻只能有一个节点认为自己是Master,在这种约束下,读写我都在Master上进行,就可以获得Latest效果。Master与Leader有本质上的区别,要达到Master这种强一致的唯一性,必须得通过强一致性算法才能选举出来。而当我们实现了Paxos算法后,选举Master也就变得非常简单了,会涉及到一些租约的东西,后面再分享。



参看:

  1. Paxos从理论到实践

  2. phxpaxos

  3. Paxos算法

  4. 腾讯开源的 Paxos库 PhxPaxos 代码解读-