ycgg的GO语言之路Day09——分布式理论| 青训营笔记

29 阅读9分钟

这是我参与「第五届青训营 」伴学笔记创作活动的第 9 天

Day09——分布式理论

01.分布式概述

分布式系统是计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标。可以分为分布式计算、分布式存储、分布式数据库等。

数据爆炸,对存储和计算有大规模运用的述求

成本低,构建在廉价服务器之上

优势∶

1.去中心化,整体计算能力提高很多

2.低成本

3.弹性,可以根据用户服务的波峰波谷进行调整

4.资源共享,数据集中起来可以共享

5.可靠性高

挑战:

1.普遍的节点故障,成千上万的服务器会导致肯定会出现单节点故障

2.不可靠的网络,使程序出现对,错,网络异常三种状态,大大增加复杂性

3.异构的机器与硬件环境

4.安全,一个集群被攻破所有的数据都会有安全问题

常见的分布式系统

分布式存储

1.Google File System ( GFS ) : google分布式文件系统

2.Ceph :统一的分布式存储系统

3.Hadoop HDFS:基于GFS架构的开源分布式文件系统

4.Zookeeper :高可用的分布式数据管理与系统协调框架

分布式数据库

1.Google Spanner : google可扩展的、全球分布式的数据库

2.TiDB∶开源分布式关系型数据库

3.HBase :开源Nosql数据库

4.MongoDB:文档数据库

分布式计算

1.Hadoop :基于MapReduce分布式计算框架

2.Spark :在Hadoop基础之上,使用内存来存储数据

3.YARN:分布式资源调度

02.系统模型

  • Byzantine failure(拜占庭故障):节点可以任意篡改发送给其他节点的数据,网络出现故障或者安全出现故障时出现
  • Authentication detectable byzantine failure(ADB): Byzantine failure的特例;节点可以篡改数据,但不能伪造其他节点的数据
  • Performance failure:节点未在特定时间段内收到数据,即时间太早或太晚(不要在一个节点上打转)
  • Omission failure:节点收到数据的时间无限晚,即收不到数据
  • Crash failure:在omission failure的基础上,增加了节点停止响应的假设,也即持续性地omission failure
  • Fail-stop failure:在Crash failure的基础上增加了错误可检测的假设

故障模型:

image-20230203204418745.png

拜占庭将军问题引入:

A,B两支军队必须一起进攻才能胜利,因此约定进攻时间派出信使来确认进攻消息

结论是,两将军问题是被证实无解的电脑通信问题,两支军队理论上永远无法达成共识。

信使在回复确认的路上被截获,也可能在送信路上被截获,消息使两位将军都完全确认并相互知晓的概率永远不可能为1,只是随着加派趟数变多,概率接近于1

共识与消息传递的不同︰即使保证了消息传递成功,也不能保证达成共识

类似于TCP的握手

方案一:同时发送N个信使,任何一个达到对方军队,都算成功。

方案二:设置超时时间,发送后未在一定时间返回,则加派信使。

拜占庭将军问题的普世场景

拜占庭将军考虑更加普适的场景,例如3个将军ABC互相传递消息,消息可能丢失,也可能被篡改,当有一个将军是“叛徒”(即出现拜占庭故障)时,整个系统无法达成一致。 如果没有“叛徒”,无论各自观察到怎样的敌情,总能达成一致的行动。 由于“叛徒”C的存在,将军A和将军B获得不同的信息。这样将军A获得2票进攻1票撤退的信息,将军B获得1票进攻2票撤退的信息,产生了不一致。245 考虑当4个将军,只有1个叛徒的场景。将军D作为消息分发中枢,约定如果没收到消息则执行撤退。 -如果D为“叛徒”,ABC无论收到任何消息,总能达成─致

D为“忠将”,ABC有2人将D的消息进行正确的传递,同样能保证最终决策符合大多数。 进而能够证明,当有3m+1个将军,其中m个“叛徒”时,可以增加m轮协商,最终达成一致

共识和一致性

客户端A读到x=0,当客户端C正在写入时,客户端A和B可能读到O或者1。但是当C写入完成后,A和B最终能读到一致的数据。我们称这样的一致性为最终一致性

image-20230203205735096.png

当客户端A读到更新的版本x=1后,及时将消息同步给其他客户端,这样其他客户端立即能获取到x=1。我们称这样的一致性为线性—致性

如果要保证“线性”一致性,多个节点间势必需要进行协商,以寻求一致。这样增加了延迟,系统可用性便会受损,但是必须要有消息同步,会有延迟

image-20230203205853475.png

时间和事件顺序

我们定义“happened before”关系,记为"→"。其满足如下三个条件:

-如果a和b是在相同节点上的两个事件,a在b之前发生,则定义:a→b

-如果事件a表示某个节点发送某条消息,b是另一个节点接受这条消息,则有a→b

-如果有a→b 且b→c,则有a→c

当且仅当a>b且ba时,我们称两个事件为并发的

不难在图中找到若干满足条件的事件对,例如p1→r4,其由p1→q2→q4→r3→r4推导而来

image-20230203210046635.png

Lamport逻辑时钟

Lamport逻辑时钟

1.如果a和b是在相同节点Pi 上的两个事件,a在b之前发生,则有Ci<a)<Ci(b)

⒉如果事件a表示节点Pi发送某条消息,b表示节点Pj接受这条消息,则有Ci(a)<cj(b)

于是我们可以在时空图中加入类似下图虚线所示的“tick line 在同一节点内的连续两个事件之间,至少要有一条tick line 利用逻辑时钟,我们可以对整个系统中的事件进行全序排序

类似于量子物理中将时间分成一份一份,即是离散的,而不是连续的

image-20230203210308366.png

03.理论基础

CAP理论

C:一致性,指数据在多个副本之间能够保持一致的特性

A:可用性,指系统提供的服务必须一直处于可用的状态,每次请求都能获取到非错的响应——但是不保证获取的数据为最新数据。

P:分区容错性,分布式系统在遇到任何网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务,除非整个网络环境都发生了故障。

但是在实际中永远无法CAP同时满足,但是可以尽可能去接近

CA:放弃分区容错性,加强一致性和可用性,其实就是传统的单机数据库的选择

AP∶放弃一致性(这里说的一致性是强一致性),追求分区容错性和可用性例如一些注重用户体验的系统

CP︰放弃可用性,追求一致性和分区容错性,例如与钱财安全相关的系统

image-20230203211249116.png

在网络发生分区的情况下,我们必须在可用性和一致性之间做出选择。如上图,P1,P2两个节点发生网络故障,左边丢失一致性,用户访问P1节点得到1,访问P2节点得到0。而右图为了保证一致性直接拒绝服务,丢失可用性。

近似解决办法︰把故障节点的负载转移给备用节点负责

master为主节点,backup为备用节点,所有请求都有master解决,只有故障时使用backup

如左图,当master故障时,转到backup,这样保证了可用性,但是会损失一点点同步时的数据一致性

如右图,两节点同步时故障,master也故障,这样就会丢失同步点到master故障点的数据一致,但是在master恢复重启时可以找到

这样的方法一致性和可用性都会有一点损失,但是能大概率保证运行

image-20230203211657976.png

ACID理论

事务是数据库系统中非常重要的概念,它是数据库管理系统执行过程中的一个逻辑单元,它能够保证一个事务中的所有操作要么全部执行,要么全都不执行。数据库事务拥有四个特性ACID,即分别是原子性(Atomicity)、一致性(Consistency)、隔离性((lsolation)和持久性(Durability)

原子性(A)。原子性是指事务包含的所有操作要么全部成功,要么全部失败回滚。

一致性(C)。一致性是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之后都必须处于一致性状态。比如转账时,转账前后金钱总额必须是一样的,这里的一致性指事务的一致性,和分布式的一致性不同。而分布式的一致性指每个节点的数据值必须是相同的。

隔离性(I)。隔离性是当多个用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多个并发事务之间要相互隔离。

持久性(D)。持久性是指一个事务一旦被提交了,那么对数据库中的数据的改变就是永久性的,即便是在数据库系统遇到故障的情况下也不会丢失提交事务的操作。

ACID并不是都能一定保证的,但是A和C必须保证

BASE理论

Base 理论是对CAP中一致性和可用性权衡的结果,其来源于对大型互联网分布式实践的总结,是基于CAP定理逐步演化而来的。其核心思想是:

1.Basically Available(基本可用):假设系统,出现了不可预知的故障,但还是能用,相比较正常的系统而言:响应时间上的损失,或功能上的损失 2.Soft state (软状态)︰允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延时。

3.Eventually consistent(最终一致性)︰系统能够保证在没有其他新的更新操作的情况下,数据最终一定能够达到一致的状态,因此所有客户端对系统的数据访问最终都能够获取到最新的值。

04.分布式事务

二阶段提交

为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的-种演算法。

三个假设:

1.引入协调者(Coordinator)和参与者(Participants),互相进行网络通信

⒉.所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上

3.所有节点不会永久性损坏,即使损坏后仍然可以恢复

image-20230203213759565.png

可能出现的情况:

  • 情况1:Coordinator不宕机,Participant宕机。如下图所示,需要进行回滚操作
  • 情况2:Coordinator宕机,Participant不宕机。可以起新的协调者,待查询状态后,重复二阶段提交
  • 情况3:Coordinator宕机,Participant宕机。无法确认状态,需要数据库管理员的介入,防止数据库进入一个不一致的状态。

需要注意的问题:

1.性能问题

两阶段提交需要多次节点间的网络通信,耗时过大,资源需要进行锁定,徒增资源等待时间。

2.协调者单点故障问题

如果事务协调者节点宕机,需要另起新的协调者,否则参与者处于中间状态无法完成事务。

3.网络分区带来的数据不一致

一部分参与者收到了Commit消息,另一部分参与者没收到Commit消息,会导致了节点之间数据不一致。比如一个扣款已经成功,另一个没收到commit

三阶段提交

将两阶段提交中的Prepare阶段,拆成两部分:CanCommit和PreCommit机制

比如进行CanCommit,看看用户账户是否有足够的转账金额,没有直接拒绝服务,节省资源

image-20230203214556555.png

解决了两个问题:1.单点故障问题2.阻塞问题

另外引入超时机制,在等待超时之后,会继续进行事务的提交。

MVCC

image-20230203214723794.png

image-20230203214732105.png

乐观锁可以查看查询数据

MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC为每个修改保存一个版本,和事务的时间戳相关联。可以提高并发性能,解决脏读的问题。

会记录每一个版本和时间戳,需要时返回

05.共识协议

Quorum NWR模型

N:在分布式存储系统中,有多少份备份数据

W∶代表一次成功的更新操作要求至少有w份数据写入成功

R:代表一次成功的读数据操作要求至少有R份数据成功读取

image-20230203215309543.png

为了保证强一致性,需要保证W+R>N,注意该条件是必要条件而不是充分条件

比如:并发更新问题

用户如果读到副本1和副本2,得出v=3的结论如果读到副本2和副本3,得出v=2的结论

image-20230203215648075.png

造成问题的根源是允许数据被覆盖,所以该模型通常用于追加写操作,该操作不会出现数据覆盖,也就不会出现上述问题

RAFT协议

Raft协议是一种分布式一致性算法(共识算法),即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。Raft是使用较为广泛的分布式协议。一定意义上讲,RAFT也使用了Quorum机制。

Leader -领导者,通常一个系统中是一主(Leader)多从(Follower) ,Leader负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志。

Follower -跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader出现故障时,主动推荐自己为Candidate。

Candidate-备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。

一开始大家都是Follower,到达一定时间开始选举,彼此进行投票(类似刚才的拜占庭将军)。在此环节中,如果leader出现宕机会回退为follower

Log (日志)︰节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题

Term(任期号):单调递增,每个Term内最多只有一个Leader

Committed:日志被复制到多数派节点,即可认为已经被提交

Applied:日志被应用到本地状态机:执行了log中命令,修改了内存状态

Leader选举过程:

1.初始全部为Follower 2.Current Term + 13.选举自己 4.向其它参与者发起RequestVote请求,retry直到

-收到多数派请求,成为Leader,并发送心跳 -收到其它Leader的请求,转为Follower,更新自己的Term -收到部分,但未达到多数派,选举超时,随机timeout开始下一轮

(此情况网络不好时就很容易出现无法服务的状态)

两个规则

-在一个任期内每个参与者最多投一票(持久化)

-要成为Leader,必须拿到多数投票

Log Replication过程(数据同步):

新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志

1.Leader收到写请求w

2.将w写入本地log

3.向其它Follower发起AppendEntries RPC

4.等待多数派回复

-更新本地状态机,返回给客户端

-下一个心跳通知Follower上一个Log已经被Committed了

-Follower也根据命令应用本地状态机

5.Follower有问题,Leader—直retry

可能leader会重新选举,之前的日志作废,follower不同步 的数据强行覆盖

leader出现问题

当Leader出现问题时,就需要进行重新选举。

1.Leader发现失去Follower的响应,失去Leader身份

2.两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主

3.Leader自杀重启,以Follower的身份加入进来

问题:老leader未失去身份,新leader已经选出,产生了“双主”,该如何解决呢?

比如出现网络问题,老leader看到自己数据写成功,但是此时已经选举出新leader

双主问题带来的问题:

Stale读:

发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read。如何解决?

解决方案,保证读的强一致

读操作在lease timeout内,默认自己是leader;不是则发起一次heartbeat。等待Commit Index应用到状态机。

Election timeout > lease timeout:新leader 上任,自从上次心跳之后一定超过了Election

timeout,l日leader大概率能够发现自己的Lease过期

Paxos协议

Paxos算法与RAFT算法区别:

1.Multi-Paxos可以并发修改日志,而Raft写日志操作必须是连续的

2.Multi-Paxos可以随机选主,不必最新最全的节点当选Leader

谁都可以是leader和follower

Paxos优势:写入并发性能高,所有节点都能写入

Paxos劣势∶没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录,宕机时需要一个个确定leader