分布式理论-现代架构基石|zo的笔记|青训营笔记

156 阅读11分钟

分布式理论-现代架构基石|zo的笔记|青训营笔记

这是我参与「第五届青训营 」笔记创作活动的第10天。注:笔记大部分图片内容及代码段为青训营课程视频提供,仅交流,不得做个人使用

一、本课主要内容

分布式概述 | 系统模型 | 理论基础
分布式事务 | 共识协议 | 分布式实践

二、本节详细知识点

分布式概述
-什么是分布式
-Why-How-What
-常见的分布式系统
系统模型
-故障模型
-拜占庭将军问题
-共识和一致性 -时间和事件顺序 理论基础
-CAP理论
-ACID理论
-BASE理论
分布式事务
-两阶段提交
-三阶段提交
-MVCC
共识协议
-Quorum NWR模型
-RAFT协议
-Paxos协议
分布式概述
-MapReduce
-分布式KV

1分布式概述

分布式系统是计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标。可以分为分布式计算、分布式存储、分布式数据库等。

优势:1.去中心化2.低成本3.弹性4.资源共享4.资源共享
挑战:1.普遍的节点故障2.不可靠的网络3.异构的机器与硬件环境4.安全5.可靠性高

image.png

1.1Why-How-What

使用者视角
Why 1.数据爆炸,对存储和计算有大规模运用的诉求2.成本低,构建在廉价服务器之上
How 1.分布式框架2.成熟的分布式系统
What 1.理清规模,负载,一致性要求等2.明确稳定性要求,制定技术方案

学习者视角
Why 1.后端开发必备技能2.帮助理解后台服务器之间协作的机理
How 1.掌握分布式理论2.了解一致性协议
What:1.把要点深入展开,针对难点搜索互联网资料进行自学2.将所学知识运用于实践

1.2常见的分布式系统

分布式存储

1. Google File System ( GFS): google分布式文件系统
2.Ceph:统一的分布式存储系统
3. Hadoop HDFS:基于GFS架构的开源分布式文件系统
4.Zookeeper:高可用的分布式数据管理与系统协调框架

分布式数据库

1.Google Spanner: google可扩展的、全球分布式的数据库
2.TiDB:开源分布式关系型数据库
3.HBase:开源Nosql数据库
4.MongoDB:文档数据库

分布式计算

1.Hadoop:基于MapReduce分布式计算架  
2.Spark:在Hadoop基础之上,使用内存来存储数据  
3.YARN:分布式资源调度

2系统模型

2.1故障模型

image.png 按照处理的难易程度划分,不代表重要程度。

可以从四个维度衡量故障:正确性、时间、状态、原因。

·Byzantine(拜占庭) failure:节点可以任意改发送给其他节点的数据(正确性的故障,计算机较难处理。大多数分布式系统不解决拜占庭故障)(常采用将传递的信息加密或冗余的设计,使消息被篡改后易识别)
·Authentication detectable byzantine failure (ADB):Byzantine failure的特例;节点可以篡改数据,但不能伪造其他节点的数据
·Performance failure:节点未在特定时间段内收到数据,即时间太早或太晚(故障和非故障的叠加态)
·Omission failure:节点收到数据的时间无限晚,即收不到数据(长时间未决的故障)
·Crash failure: 在omission failure的基础上,增加了节点停止响应的假设,也即持续性地omission failure(只知道状态不知道原因)
·Fail-stop failure: 在Crash failure的基础上增加了错误可检测的假设(既知道状态又知道原因)

  • 工作中常见问题

image.png

2.2拜占庭将军问题

引入:两将军问题(Two Generals'Problem):两支军队的将军只能派信使穿越敌方领土互相通信,以此约定进攻时间。该问题希望求解如何在两名将军派出的任何信使都可能被俘虏的情况下,就进攻时间达成共识。-wiki pedia 结论是,两将军问题是被证实无解的电脑通信问题,两支军队理论上永远无法达成共识。
-方案一:同时发送N个信使,任何一个达到对方军队,都算成功。
-方案二:设置超时时间,发送后未在一定时间返回,则加派信使。
共识与消息传递的不同:即使保证了消息传递成功,也不能保证达成共识
TCP三次握手是在两个方向确认包的序列号,增加了超时重试,是两将军问题的一个工程解。
(永远有可能无法达成)

image.png 思考
1.为何三次握手?而不是两次和四次?
2.挥手过程中,如果FIN报文丢失,发生什么?

  • 三个将军问题 拜占庭将军考虑更加普适的场景,例如3个将军ABC互相传递消息,消息可能丢失,也可能被篡改,当有一个将军是“叛徒”(即出现拜占庭故障)时,整个系统无法达成一致。
    如果没有“叛徒”,无论各自观察到怎样的敌情,总能达成一致的行动。
    由于“叛徒”C的存在,将军A和将军B获得不同的信息。这样将军A 获得2票进攻1票撤退的信息,将军B获得1票进攻2票撤退的信息,产生了不一致。
    考虑当4个将军,只有1个叛徒的场景。将军D作为消息分发中枢,约定如果没收到消息则执行撤退。
    -如果D为“叛徒”,ABC无论收到任何消息,总能达成一致-D为“忠将”,ABC有2人将D的消息进行正确的传递,同样能保证最终决策符合大多数。
    进而能够证明,当有3m+1个将军,其中m个“叛徒”时,可以增加m轮协商,最终达成一致。

image.png

2.3共识和一致性

客户端A读到x=0,当客户端C正在写入时,客户端A和B可能读到0或者1。但是当C写入完成后,A和B最终能读到一致的数据。 我们称这样的一致性为Eventually consistent(最终一致性)

image.png ·读请求和写请求并发时可能读到旧值

当客户端A读到更新的版本x=1后,及时将消息同步给其他客户端,这样其他客户端立即能获取到x=1。我们称这样的一致性为Linearizability(线性一致性)如果要保证“线性”一致性,多个节点间势必需要进行协商,以寻求一致。这样增加了延迟,系统可用性便会受损

image.png 一旦某个读获取到新值,所有客户端都必须返回新值

2.4时间和事件顺序

1978年Leslie Lamport发表在 Communications of the ACM上的论文Time, Clocks, and the Ordering of Events in a Distributed System
我们定义“happened before”关系,记为"→"。其满足如下三个条件:
-如果a和b是在相同节点上的两个事件,a在b之前发生,则定义: a-b
如果事件a表示某个节点发送某条消息,b是另一个节点接受这条消息,则有a→b
-如果有a→b且b→c,则有a→c 当且仅当ab且ba时,我们称两个事件为并发的(concurrent)
我们不难在图中找到若干满足条件的事件对,例如p1→r4,其由p1→q2→q4→r3→r4推导而来

image.png

  • Lamport逻辑时钟 对于每一个节点Pi我们定义时钟Ci为一个函数,它为任意的事件a赋值编号为Ci(a)
    1.如果a和b是在相同节点Pi上的两个事件,a在b之前发生,则有Ci(a)<Ci(b)
    2.如果事件a表示节点Pi发送某条消息,b表示节点Pj接受这条消息,则有Ci(a)<Cj(b)
    于是我们可以在时空图中加入类似右图虚线所示的“tick line"
    在同一节点内的连续两个事件之间,至少要有一条 tick line
    利用逻辑时钟,我们可以对整个系统中的事件进行全序排序

image.png 分布式系统中存在逻辑时钟靠后,物理时间靠前的现象。但lamport逻辑时钟依旧能够帮助定义时间戳。

2理论基础

2.1CAP理论

CAP永远无法全部达成100%。 image.png CAP理论往往运用于数据库领域,同样可以适用于分布式存储方向
CA:放弃分区容错性,加强一致性和可用性,其实就是传统的单机数据库的选择
AP:放弃一致性(这里说的一致性是强一致性),追求分区容错性和可用性,例如一些注重用户体验的系统
CP:放弃可用性,追求一致性和分区容错性,例如与钱财安全相关的系统

image.png

  • 例子 可用性和一致性只能选一 image.png 在网络发生分区的情况下,我们必须在可用性和一致性之间做出选择。
    近似解决办法:把故障节点的负载转移给备用节点负责。下图演示了如何做故障转移: Master与Backup image.png 同时崩溃时,master重启能够一定程度挽救局面。

2.2ACID理论

事务是数据库系统中非常重要的概念,它是数据库管理系统执行过程中的一个逻辑单元,它能够保证一个事务中的所有操作要么全部执行,要么全都不执行。
数据库事务拥有四个特性ACID,即分别是原子性(Atomicity)、一致性(Consistency)、隔离性(Isolation)和持久性( Durability )
原子性(A)。原子性是指事务包含的所有操作要么全部成功,要么全部失败回滚。
一致性(C)。一致性是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之后都必须处于一致性状态
隔离性(I)。隔离性是当多个用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多个并发事务之间要相互隔离
持久性(D)。持久性是指一个事务一旦被提交了,那么对数据库中的数据的改变就是永久性的,即便是在数据库系统遇到故障的情况下也不会丢失提交事务的操作。
image.png AC一定要,ID不一定

2.3BASE理论

Base理论是对CAP中一致性和可用性权衡的结果,其来源于对大型互联网分布式实践的总结,是基于CAP定理逐步演化而来的。(AP系统下)
其核心思想是:Basically Available(基本可用):假设系统,出现了不可预知的故障,但还是能用,相比较正常的系统而言:响应时间上的损失,或功能上的损失
Soft state(软状态):允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延时。
Eventually consistent(最终一致性):系统能够保证在没有其他新的更新操作的情况下,数据最终一定能够达到一致的状态,因此所有客户端对系统的数据访问最终都能够获取到最新的值。

image.png

3分布式事务

3.1二阶段提交

二阶段提交(Two-phaseCommit):为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种演算法。
基于三个假设
1.引入协调者(Coordinator)和参与者(Participants),互相进行网络通信
2.所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存儲设备上
3.所有节点不会永久性损坏,即使损坏后仍然可以恢复

image.png

  • 可能出现的故障 情况1)Coordinator不岩机,Participant岩机。如下图所示,需要进行回滚操作
    情况2)Coordinator岩机,Participant不岩机。可以起新的协调者,待查询状态后,重复二阶段提交
    情况3)Coordinator岩机,Participant容机。
    回滚:在Prepare阶段,如果某个事务参与者反馈失败消息,说明该节点的本地事务执行不成功,必须回滚。

image.png 情况3 无法确认状态需要数据库管理员的介入防止数据库进入一个不致的状态。

两阶段提交需注意的问题
1.性能问题 :两阶段提交需要多次节点间的网络通信,耗时过大,资源需要进行锁定,徒增资源等待时间。
2.协调者单点故障问题:如果事务协调者节点岩机,需要另起新的协调者,否则参与者处于中间状态无法完成事务。
3.网络分区带来的数据不一致:一部分参与者收到了commit消息,另一部分参与者没收到Commit消息,会导致了节点之间数据不一致
思考
1.日志被保存在「可靠」的存储设备上。如何保证这一点? IOE与去IOE运动?,分布式文件系统、分布式块存储、分布式KV
2.参与者Commit了,但Ack信息协调者没收到。怎么办?

3.2三阶段提交

三阶段与两阶段对比
将两阶段提交中的Prepare阶段,拆成两部分: CanCommitPreCommit机制
解决了两个问题:1.单点故障问题2.阻塞问题
另外引入超时机制,在等待超时之后,会继续进行事务的提交。
思考? 三阶段缓和了两阶段面临的问题,但依然没有解决:
1.性能问题2.网络分区场景带来的数据一致性问题

3.3MVCC

-悲观锁:操作数据时直接把数据锁住,直直到操作完成后才会释放锁;上锁期间其他人不能修改数据 image.png -乐观锁不会上锁只是在执行更新时判断别人是否修改数据只有冲突时才放弃操作 image.png MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC 为每个修改保存一个版本,和事务的时间截相关联。可以提高并发性能,解决脏读的问题

image.png Spanner论文里通过TrueTimeAPI提供一个物理时钟的方式。服务器时钟偏差在1到7ms之间。
S1提交事务时间:s1=max(157+7)=15ms
S2提交事务时间:s2=max(13,12+7)=19ms

另外一种时间的实现:时间预言机(TSO),采用中心化的授时方式,所有协调者向中心化节点获取时钟。 方法简单,实现方便,但需要每个节点都与他进行交互,会产生一些网络通信的成本。TSO的授时中就需要考虑低延迟、高性能以及更好的容错性。

4共识协议

4.1Quorum NWR模型

QuorumNWR三要素
N:在分布式存储系统中,有多少份备份数据
W:代表一次成功的更新操作要求至少有W份数据写入成功
R:代表一次成功的读数据操作要求至少有R份数据成功读取

image.png

为了保证强一致性,需要保证W+R>N
QuorumNWR模型将CAP的选择交给用户,是一种简化版的一致性模型。

思考: 引起的并发更新问题
读者如果读到副本1和副本2,得出v=3的结论
如果读到副本2和副本3,得出v=2的结论

image.png 问题根源:允许数据被覆盖

4.2 RAFT协议

Raft协议是一种分布式一致性算法(共识算法)即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。 Raft是使用较为广泛的分布式协议。一定意义上讲, RAFT也使用了Quorum机制。

Leader-领导者,通常一个系统中是一主(Leader)多从(Follower)。Leader负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志。 Follower-跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader 出现故障时,主动推荐自己为Candidate。

image.png Candidate-备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。

image.png Log(日志):节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题
Term(任期号):单调递增,每个Term内最多只有一个Leader
Committed:日志被复制到多数派节点,即可认为已经被提交
Applied:日志被应用到本地状态机:执行了log中命令,修改了内存状态

  • Leader选举过程
1.初始全部为Follower 
2.Current Term+1 
3.candidate选举自己
4.向其它参与者发起RequestVote请求,retry直到
-收到多数派请求,成为Leader,并发送心跳
-收到其它Leader的请求,转为Follower,更新自己的Term 
-收到部分,但未达到多数派,选举超时,随机timeout开始下一轮

两个规则 ①在个任期内每个参与者最多投 1 票(持久化)。②要成为Leader 必须拿到多数投票

  • Log Replication过程:
新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志
1.Leader收到写请求W 
2.将w写入本地log 
3.向其它Follower发起AppendEntriesRPC 
4.等待多数派回复
-更新本地状态机,返回给客户端
-下一个心跳通知Follower上一个Log已经被Committed了
-Follower也根据命令应用本地状态机
5.Follower有问题,Leader一直retry 

如果Leader有问题呢?

  • 切主 当Leader出现问题时,就需要进行重新选举。
1.Leader发现失去Follower的响应,失去Leader身份
2.两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
3.Leader自杀重启,以Follower的身份加入进来

问题:老leader未失去身份,新leader已经选出,产生了“双主”,该如何解决呢?

  • Stale读(旧读) 发生Leader切换,old leader收到了读请求。如果直接响应,可能会有StaleRead。如何解决?
    ——解决方案,保证读的强一致
    读操作在lease timeout内,默认自己是leader;不是则发起一次heartbeat。等待CommitIndex 应用到状态机。
    Election timeout>lease timeout:新leader上任,自从上次心跳之后一定超过了Election timeout,旧leader大概率能够发现自己的Lease 过期

4.3Paxos协议

Paxos算法与RAFT算法的区别

1.Multi-Paxos可以并发修改日志,而Raft写日志操作必须是连续的
2.Multi-Paxos可以随机选主,不必最新最全的节点当选Leader 

Paxos优势:写入并发性能高,所有节点都能写入
Paxos劣势:没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录 image.png

image.png

分布式实践

MapReduce

统计文本中某一单词出现多少次 image.png Mapper:将输入分解为多个Job来并行处理。彼此间几乎没有依赖关系
Shufler:将maper结果打乱,防止数据倾斜
Reducer:对map阶段的结果进行全局汇总

分布式KV

架构: 将海量结构化数据根据Key分成不同的Region,每个Region构建一个单机KV 数据库,Region之间形成RaftGroups,做到强一致
容错: 当Node故障时,通过RaftLearner模式进行数据修复
弹性(在线): 当出现局部Key热点或数据膨胀时Region可以进行Split操作,分成两个子Region,反之收缩时进行Merge操作

image.png

总结

image.png

image.png