【青训营笔记】- 「分布式理论 - 现代架构基石」

130 阅读16分钟

这是我参与「第五届青训营 」笔记创作活动的第8天。

一、分布式概述

1.1 什么是分布式

分布式系统是计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标。可以分为分布式计算、分布式存储、分布式数据库等

image.png

  • 优势
  1. 去中心化
  2. 低成本
  3. 弹性
  4. 资源共享
  5. 可靠性高
  • 挑战
  1. 普遍的节点故障
  2. 不可靠的网络
  3. 异构的机器与硬件环境
  4. 安全

1.2 Why-How-What

使用者视角

Why

  1. 数据爆炸,对存储和计算有大规模运用的述求
  2. 成本低,构建在廉价服务器之上 How : 1.分布式框架2.成熟的分布式系统 What
  3. 理清规模,负载,一致性要求等
  4. 明确稳定性要求,制定技术方案

学习者视角

Why:

  1. 后端开发必备技能
  2. 帮助理解后台服务器之间协作的机理 How:
  3. 掌握分布式理论
  4. 了解一致性协议 What: 1.把要点深入展开,针对难点搜索互联网资料进行学习2.将所学知识运用于实践

二、系统模型

2.1 常见的分布式系统

  • 分布式存储
  1. Google File System ( GFS ) : google分布式文件系统
  2. Ceph : 统一的分布式存储系统
  3. Hadoop HDFS: 基于GFS架构的开源分布式文件系统
  4. Zookeeper : 高可用的分布式数据管理与系统协调框架
  • 分布式数据库
  1. Google Spanner: google可扩展的、全球分布式的数据库
  2. TiDB: 开源分布式关系型数据库
  3. HBase: 开源Nosql数据库
  4. MongoDB : 文档数据库
  • 分布式计算
  1. Hadoop: 基于MapReduce分布式计算框架
  2. Spark : 在Hadoop基础之上,使用内存来存储数据
  3. YARN: 分布式资源调度

2.2 故障模型

  • Byzantine failure : 节点可以任意篡改发送给其他节点的数据
  • Authentication detectable byzantine failure (ADB):Byzantine failure的特例;节点可以篡改数据,但不能伪造其他节点的数据
  • Performance failure: 节点未在特定时间段内收到数据,即时间太早或太晚
  • Omission failure : 节点收到数据的时间无限晚,即收不到数据
  • Crash failure :在omission failure的基础上,增加了节点停止响应的假设,也即持续性地omission failure
  • Fail-stop failure : 在Crash failure的基础上增加了错误可检测的假设

image.png

故障描述可能的类型
磁盘故障磁头不寻道、盘片不转、磁介质损伤等。年发生率1-2%Fail-stop
磁盘坏道、坏块磁头划伤引起坏道,或受宇宙射线影响晶体管产生位反转Fail-stop,ADB
服务器主板、板卡故障可能是风扇故障,或灰尘引起的短路,或SCSI/RAID卡造成的死机Crash
网络故障电源故障、背板故障等,网卡位反转、网络流量大造成大量丢包等Byzantine,Omission
网络分区网络引起节点形成不同的子集,子集中网络相通,子集间网络不通Performance
内存故障内存出错造成的数据被篡改,分为UE、CE两种ADB
线缆故障服务器光模块频繁up或downPerformance,Omission
内核崩溃内核内部的致命错误,产生的kernel panicCrash
CPU故障年故障率接近1%Omission、Crash
电源故障服务器失去电力支撑Omission
软件故障如 : 进程crash、内存踩坏、状态不一致、配置错误、软件bug等Byzantine,Omission

拜占庭将军问题

  • 引入: 两将军问题( Two Generals' Problem ) : 两支军队的将军只能派信使穿越敌方领士互相通信,以此约定进攻时间。该问题希望求解如何在两名将军派出的任何信使都可能被俘虏的情况下,就进攻时间达成共识。- 来自Wikepedia
  • 结论是,两将军问题是被证实无解的电脑通信问题,两支军队理论上永远无法达成共识
  • 方案一: 同时发送N个信使,任何一个达到对方军队,都算成功
  • 方案二 : 设置超时时间,发送后未在一定时间返回,则加派信使

共识与消息传递的不同 : 即使保证了消息传递成功,也不能保证达成共识

TCP 三次握手是在两个方向确认包的序列号 ,增加了超时重试 ,是两将军问题的一个工程解。

  • 思考 :
  1. 为何三次握手 ? 而不是两次和四次 ?
  2. 挥手过程中,如果FIN 报文丢失,发生什么 ?

共识和一致性

客户端A读到x=0,当客户端C正在写入时客户端A和B可能读到0或者1。但是当C写入完成后,A和B最终能读到一致的数据。我们称这样的一致性为Eventuallyconsistent ( 最终一致性 )

image.png

  • 当客户端A读到更新的版本x=1后,及时将消息同步给其他客户端,这样其他客户端立即能获取到x=1。我们称这样的一致性为Linearizability ( 线性一致性 )
  • 如果要保证“线性”一致性,多个节点间势必需要进行协商,以寻求一致。这样增加了延迟,系统可用性便会受损

image.png

三、理论基础

CAP理论

选项描述
C (Consistence)一致性,指数据在多个副本之间能够保持一致的特性 (严格的一致性) 。
A (Availability)指系统提供的服务必须一直处于可用的状态,每次请求都能获取到非错的响应一--但是不可用性,:保证获取的数据为最新数据。
p(Network partitioning)分区容错性,分布式系统在遇到任何网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务,除非整个网络环境都发生了故障。

CAP理论往往运用于数据库领域,同样可以适用于分布式存储方向

  • CA : 放弃分区容错性,加强一致性和可用性,其实就是传统的单机数据库的选择
  • AP : 放弃一致性(这里说的一致性是强一致性 ),追求分区容错性和可用性例如一些注重用户体验的系统
  • 放弃可用性,追求一致性和分区容错性,例如与钱财安全相关的系统

image.png

image.png

image.png

ACID理论

  • 事务是数据库系统中非常重要的概念,它是数据库管理系统执行过程中的一个逻辑单元,它能够保证一个事务中的所有操作要么全部执行要么全都不执行
  • 数据库事务拥有四个特性ACID ,即分别是原子性 ( Atomicity )、一致性 (Consistency)、隔离性 (Isolation ) 和持久性(Durability )
  1. 原子性(A)。是指事务包含的所有操作要么全部成功,要么全部失败回滚。
  2. 一致性(C)。是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之后都必须处于一致性状态
  3. 隔离性(I)。隔离性是当多个用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多人并发事务之间要相互隔离
  4. 持久性(D)。持久性是指一个事务一旦被提交了,那么对数据库中的数据的改变就是永久性的,即便是在数据库系统遇到故障的情况下也不会丢失提交事务的操作。

BASE理论

Base 理论是对 CAP 中一致性和可用性权衡的结果,其来源于对大型互联网分布式实践的总结,是基于 CAP 定理逐步演化而来的。其核心思想是:

  • Basically Available(基本可用): 假设系统,出现了不可预知的故障,但还是能用,相比较正常的系统而言:响应时间上的损失或功能上的损失
  • Soft state( 软状态:允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延时。
  • Eventually consistent( 最终一致性 :系统能够保证在没有其他新的更新操作的情况下,数据最终一定能够达到一致的状态因此所有客户端对系统的数据访问最终都能够获取到最新的值。

四、分布式事务

二阶段提交

二阶段提交 (Two-phase Commit ): 为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种演算法。

  • 假设一、引入协调者( Coordinator ) 和参与者( Participants ),互相进行网络通信
  • 假设二、所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上
  • 假设三、所有节点不会永久性损坏,即使损坏后仍然可以恢复

image.png

可能出现的情况:

  1. Coordinator不宕机,Participant宕机。需要进行回滚操作
  2. Coordinator宕机,Participant不宕机。可以起新的协调者,待查询状态后,重复二阶段提
  3. Coordinator宕机,Participant宕机。

回滚:在Prepare阶段,如果某个事务参与者反馈失败消息,说明该节点的本地事务执行不成功,必须回滚。

二提交需要注意的问题

  1. 性能问题 两阶段提交需要多次节点间的网络通信,耗时过大,资源需要进行锁定,徒增资源等待时间。
  2. 协调者单点故障问题 如果事务协调者节点宕机,需要另起新的协调者,否则参与者处于中间状态无法完成事务.
  3. 网络分区带来的数据不一致 一部分参与者收到了Commit消息,另一部分参与者没收到Commit消息,会导致了节点之间数据不一致。

思考 ?
1.日志被保存在[可靠]的存储设备上。如何保证这一点 ?
2.参与者Commit了,但Ack信息协调者没收到。怎么办 ?

三阶段提交

image.png

  • 三阶段提交 vs 两阶段提交
    • 将两阶段提交中的Prepare阶段,拆成两部分CanCommit和PreCommit机制
  • 解决了两个问题
  1. 单点故障问题
  2. 阻塞问题

另外引入超时机制,在等待超时之后,会继续进行事务的提交

  • 思考:三阶段缓和了两阶段面临的问题,但依然没有解决
  1. 性能问题
  2. 网络分区场景带来的数据一致性问题

MVCC

  • 悲观锁: 操作数据时直接把数据锁住,直到操作完成后才会释放锁;上锁期间其他人不能修别人是否修改数据,
  • 乐观锁:不会上锁,只是在执行更新时判断只有冲突时才放弃操作改数据

MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC为每个修改保存一个版本,和事务的时间戳相关联。可以提高并发性能,解决脏读的问题。

Spanner论文里通过TrueTime API提供一个物理时钟的方式。服务器时钟偏差在1到7ms之间。

  • S1提交事务时间:s1 = max(15,7 + 7) = 15ms
  • S2提交事务时间:s2 = max(13,12 + 7) = 19ms

image.png

另外一种时间戳的实现: 时间戳预言机 (TSO),采用中心化的授时方式,所有协调者向中心化节点获取时钟。优点是算法简单,实现方便,但需要每个节点都与他进行交互,会产生一些网络通信的成本。TSO的授时中就需要考虑低延迟,高性能以及更好的容错性。

五、共识协议

Quorum NWR模型

  • Quorum NWR三要素
    • N : 在分布式存储系统中,有多少份备份数据
    • W:代表一次成功的更新操作要求至少有w份数据写入成功
    • R:代表一次成功的读数据操作要求至少有R份数据成功读取

为了保证强一致性,需要保证 W+R>N

Quorum NWR模型将CAP的选择交给用户,是一种简化版的一致性模型。

思考 :
引起的并发更新问题读者如果读到副本1和副本2,得出v=3的结论如果读到副本2和副本3,得出v=2的结论
问题根源: 允许数据被覆盖

RAFT协议

Raft协议是一种分布式一致性算法(共识算法),即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。Raft是使用较为广泛的分布式协议。一定意义上讲,RAFT也使用了Quorum机制。

角色与概念

  • Leader - 领导者,通常一个系统中是一主 ( Leader ) 多从( Follower)。Leader 负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志。
  • Follower - 跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader出现故障时,主动推荐自己为Candidate.
  • Candidate - 备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。

image.png

  • Log( 日志): 节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题
  • Term(任期号):单调递增,每个Term内最多只有一个Leader
  • Committed : 日志被复制到多数派节点,即可认为已经被提交
  • Applied : 日志被应用到本地状态机: 执行了log中命令,修改了内存状态

image.png

Leader选举过程

  1. 初始全部为Follower
  2. Current Term + 1
  3. 选举自己
  4. 向其它参与者发起RequestVote请求,retry直到
    • 收到多数派请求,成为Leader,并发送心跳
    • 收到其它Leader的请求,转为Follower,更新自己的Term
    • 收到部分,但未达到多数派,选举超时,随机timeout开始下一轮
  • 两个规则
    • 在一个任期内每个参与者最多投一票( 持久化 )
    • 要成为Leader,必须拿到多数投票

Log Replication过程

新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志

  1. Leader收到写请求w
  2. 将w写入本地log
  3. 向其它Follower发起AppendEntries RPC
  4. 等待多数派回复
    • 更新本地状态机,返回给客户端
    • 下一个心跳通知Follower上一个Log已经被Committed了
    • Follower也根据命令应用本地状态机
  5. Follower有问题,Leader一直retry

如果Leader有问题呢 ?切主

切主

当Leader出现问题时,就需要进行重新选举。

  1. Leader发现失去Follower的响应,失去Leader身份
  2. 两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
  3. Leader自杀重启,以Follower的身份加入进来

问题: 老leader未失去身份,新leader已经选出,产生了“双主'该如何解决呢 ?

Stale读

  • 发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read。如何解决 ?
  • 解决方案,保证读的强一致
  • 读操作在lease timeout内,默认自己是leader不是则发起一次heartbeat。等待Commit Index应用到状态机。
  • Election timeout > lease timeout : 新leader上任,自从上次心跳之后一定超过Electiontimeout ,l日leader大概率能够发现自己的Lease过期

Paxos协议

Paxos算法与RAFT算法区别

  1. Multi-Paxos 可以并发修改日志,而Raft写日志操作必须是连续的
  2. Multi-Paxos 可以随机选主,不必最新最全的节点当选Leader Paxos优势 :写入并发性能高,所有节点都能写入Paxos劣势: 没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录

Paxos协议的优势和劣势

  • Paxos优势: 写入并发性能高,所有节点都能写入
  • Paxos劣势: 没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录

六、分布式实践

MapReduce

image.png

  • Mapper : 将输入分解为多个Job来并行处理。彼此间几乎没有依赖关系
  • Shuffler : 将maper结果打乱,防止数据倾斜
  • Reducer: 对map阶段的结果进行全局汇总
  • 容错:
      1. Mapper故障:由中心化节点重新发起调度,新起Mapper重跑job
      1. Reducer故障:重跑Mapper,代价大

分布式KV

  • 架构:将海量结构化数据根据Key分成不同的Region,每个Region构建一个单机KV数据库,Region之间形成Raft Groups做到强一致
  • 容错: 当Node故障时,通过Raft Learner模式进行数据修复
  • 弹性:当出现局部Key热点或数据膨胀时Region可以进行Split操作,分成两个子Region,反之收缩时进行Merge操作

七、总结

image.png

思考:

  1. 分布式系统有哪些优势和挑战 ?
  2. 两将军问题为什么理论上永远达不成共识 ?
  3. 为什么TCP采用三次握手?而不是两次和四次 ?
  4. 为什么在4将军问题中,增加1轮协商就可以对抗拜占庭故障 ?
  5. 什么是最终一致性 ? 什么是线性一致性 ?
  6. CAP理论中,请举例说明可用性和一致性的矛盾 ?
  7. ACID理论的一致性和CAP理论的一致性有什么区别 ?
  8. 两阶段提交中,什么场景需要数据库管理员介入 ?
  9. 三阶段提交缓和两阶段提交的哪两个问题 ?
  10. 什么场景适合乐观锁 ? 什么场景适合悲观锁 ?
  11. 在共识协议中,为什么说允许数据被覆盖会带来数据一致性问题 ?
  12. RAFT协议中,Leader写成功日志Loa20但未同步给Followers后发生宕机,Follower重新选举后产生一条新日志Log20,这时Leader重启,整个系统发现两种不一样的Log20的记录,请问如何区分并拒掉前面的Log20?
  13. RAFT协议中,Stale读是如何产生的 ? 该如何解决Stale读的问题 ?