这是我参与「第五届青训营 」伴学笔记创作活动的第 8 天
共识协议
Quorum NWR模型
| 选项 | 描述 |
|---|---|
| N | 在分布式存储系统中,有多少份备份数据 |
| W | 代表一次成功的更新操作要求至少有w份数据写入成功 |
| R | 代表一次成功的读取操作至少有R份数据成功读取 |
为了保证强一致性,需要保证W + R > N
Quorum NWR模型将CAP的选择交给用户,是一种简化版的一致性模型
RAFT协议
Raft协议是一种共识算法(分布式一致性算法),即使出现部分节点故障,网络延时等情况,也不影响各个节点,进而提高系统的整体可用性。
Raft协议是使用较为广泛的分布式协议。一定意义上来说,Raft也使用了Quorum机制
Laeder 领导者
通常一个系统中是一主多从(1 leader n follower)的模型。
Leader负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志
Follower 跟随者
不会发送任何请求。
接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。
当Leader出现故障时,主动推荐自己为Candidate
Candidate 备选者
Leader选举过程中的临时角色。
向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader
图示
为了避免出现多领导问题,我们有了任期号(term)
Leader选举过程
-
初始全部都为Follower
-
当前任期号 + 1
-
选举自己
-
向其他参与者发起RequestVote请求,retry一直到
- 收到多数派请求,成为Leader,并发送心跳
- 收到其他Leader请求,转为Follower,更新自己的Term
- 收到部分,但未达多数,选举超时,随机timeout开始下一轮
注意:
在一个任期内,每个参与者最多投1票(持久化)
要成为Leader,必须拿到多数投票
Log Replication过程:
新Leader产生,但是Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志
-
Leader收到写请求w
-
将w写入本地log
-
向其他Follower发起AppendEntrie RPC
-
等待多数派回复
- 更新本地状态机,返回给客户端
- 下一个心跳通知Follower上一个Log已经被Committed
- Follower也根据命令应用本地状态机
-
Follower有问题,Leader一直Retry
切主
当Leader出现问题时,我们需要进行重新选举,不然没有Laeder了
- Leader发现失去Follower的响应,失去Leader身份
- 两个Follower之间一段时间没有收到心跳,重新进行选举,选出新的Leader
- Leader自杀重启,以Follower的身份加入进来
但是我们可以发现,假若老Leader没有失去身份,新Leader已经选出,产生了双主
Stale读
发生Leader切换时候,旧的Leader收到了读取的请求,如果直接响应,那么这时候就会出现Stale读的情况
我们需要保证数据的强一致性:
- 读操作在lease timeout内,默认自己是Leader
- 不是则发起一次heartbeat。等待Commit Index应用到状态机
当然,我们需要保证Election timeout > lease timeout
新Leader上任后,自从上次心跳之后一定超过了Election timeout,旧Leader大概率能够发现自己的lease过期
Paxos协议
Paxos算法与RAFT算法的区别
- Multi-Paxos可以并发修改日志
- Multi-Paxos可以随机选主,不必最新最全的节点当选Leader