分布式理论(二) | 青训营笔记

103 阅读6分钟

这是我参与「第五届青训营 」伴学笔记创作活动的第 11 天

一、本节课重点内容

1. 分布式事务

2. 共识协议

3. 分布式实践

二、详细知识点介绍

1. 两阶段提交

定义

  • 为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种演算法。

三个假设

  • 引入协调者(Coordinator)和参与者(Participants),互相进行网络通信
  • 所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上
  • 所有节点不会永久性损坏,即使损坏后仍然可以恢复 image.png

可能出现的情况

  • 情况1:Coordinator不宕机,Participant宕机。如下图所示,需要进行回滚操作
  • 情况2:Coordinator宕机,Participant不宕机。可以起新的协调者,待查询状态后,重复二阶段提交
  • 情况3:Coordinator宕机,Participant宕机
  • 回滚:在Prepare阶段,如果某个事务参与者反馈失败消息,说明该节点的本地事务执行不成功,必须回滚。 image.png
  • 情况3:无法确认状态,需要数据库管理员的介入,防止数据库进入一个不一致的状态。

两阶段提交需注意的问题

  • 性能问题:两阶段提交需要多次节点间的网络通信,耗时过大,资源需要进行锁定,徒增资源等待时间。
  • 协调者单点故障问题:如果事务协调者节点宕机,需要另起新的协调者,否则参与者处于中间状态无法完成事务。
  • 网络分区带来的数据不一致:一部分参与者收到了Commit消息,另一部分参与者没收到Commit消息,会导致了节点之间数据不一致。

2. 三阶段提交

定义

  • 将两阶段提交中的Prepare阶段,拆成两部分:CanCommit和PreCommit机制

解决了两个问题

  • 单点故障问题
  • 阻塞问题 image.png

3. MVCC

  • MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC为每个修改保存一个版本,和事务的时间戳相关联。可以提高并发性能,解决脏读的问题。

悲观锁 image.png

  • 操作数据时直接把数据锁住,直到操作完成后才会释放锁;上锁期间其他人不能修改数据

乐观锁 image.png

  • 不会上锁,只是在执行更新时判断别人是否修改数据,只有冲突时才放弃操作

4. Quorum NWR

Quorum NWR三要素

  • N:在分布式存储系统中,有多少份备份数据
  • W:代表一次成功的更新操作要求至少有w份数据写入成功
  • R:代表一次成功的读数据操作要求至少有R份数据成功读取
  • 为了保证强一致性,需要保证W+R>N
  • Quorum NWR模型将CAP的选择交给用户,是一种简化版的一致性模型。

5. RAFT协议

  • Raft协议是一种分布式一致性算法(共识算法),即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。Raft是使用较为广泛的分布式协议。一定意义上讲,RAFT也使用了Quorum机制。

  • Leader -领导者,通常一个系统中是一主(Leader)多从(Follower) 。Leader负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志。

  • Follower -跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader出现故障时,主动推荐自己为Candidate。

  • Candidate -备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。 image.png

  • Log (日志)︰节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题

  • Term(任期号):单调递增,每个Term内最多只有一个Leader

  • Committed:日志被复制到多数派节点,即可认为已经被提交

  • Applied:日志被应用到本地状态机:执行了log中命令,修改了内存状态

Leader选举过程

  • 初始全部为Follower
  • Current Term + 1
  • 选举自己
  • 向其它参与者发起RequestVote请求,retry直到
    • 收到多数派请求,成为Leader,并发送心跳
    • 收到其它Leader的请求,转为Follower,更新自己的Term
    • 收到部分,但未达到多数派,选举超时,随机timeout开始下一轮

两个规则

  • 在一个任期内每个参与者最多投一票(持久化)
  • 要成为Leader,必须拿到多数投票

Log Replication过程

  • 新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志
  • Leader收到写请求w
  • 将w写入本地log
  • 向其它Follower发起AppendEntries RPC
  • 等待多数派回复
    • 更新本地状态机,返回给客户端
    • 下一个心跳通知Follower上一个Log已经被Committed了
    • Follower也根据命令应用本地状态机
  • Follower有问题,Leader—直retry

切主

  • 当Leader出现问题时,就需要进行重新选举
  • Leader发现失去Follower的响应,失去Leader身份
  • 两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
  • Leader自杀重启,以Follower的身份加入进来 image.png

Stale读

  • 发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read。如何解决?
  • 解决方案,保证读的强一致
  • 读操作在lease timeout内,默认自己是leader;不是则发起一次heartbeat。等待Commit Index应用到状态机.
  • Election timeout > lease timeout:新leader上任,自从上次心跳之后一定超过了Election timeout, 旧leader大概率能够发现自己的Lease过期

6. Paxos协议

Paxos算法与RAFT算法区别

  • Multi-Paxos可以并发修改日志,而Raft写日志操作必须是连续的
  • Multi-Paxos可以随机选主,不必最新最全的节点当选Leader

优势

  • 写入并发性能高,所有节点都能写入

劣势

  • 没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录

image.png

7. MapReduce

image.png

  • Mapper:将输入分解为多个Job来并行处理。彼此间几乎没有依赖关系
  • Shuffler: 将maper结果打乱,防止数据倾斜
  • Reducer:对map阶段的结果进行全局汇总

容错

  • Mapper故障:由中心化节点重新发起调度,新起Mapper重跑job
  • Reducer故障:重跑Mapper,代价大

8. 分布式KV

架构

  • 将海量结构化数据根据Key分成不同的Region,每个Region构建一个单机KV数据库,Region之间形成Raft Groups,做到强一致

容错

  • 当Node故障时,通过Raft Learner模式进行数据修复

弹性

  • 当出现局部Key热点或数据膨胀时,Region可以进行Split操作,分成两个子Region,反之收缩时进行Merge操作

image.png

三、课后个人总结

经过本节课的学习,对分布式事务、共识协议的一些算法有了一定的认识,越学习越觉得自己掌握的只是很少一部分,还需继续努力