这是我参与「第五届青训营 」伴学笔记创作活动的第 14 天,今天讲解分布式理论相关的一些基础知识.
一. 分布式概述
1. 什么是分布式?
- 分布式系统:跨多个节点的计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标.可以分为分布式计算,分布式存储,分布式数据库等.
- 使用分布式系统的五大优势:
- 去中心化
- 低成本
- 弹性
- 资源共享
- 可靠性高
- 分布式系统的挑战:
- 普遍的节点故障
- 不可靠的网络
- 异构的机器与硬件环境
- 安全
2. Why-How-What
-
使用者视角:大规模计算存储的述求
-
Why
- 1.数据爆炸,对存储和计算有大规模运用的述求
- 2.成本低,构建在廉价服务器之上
-
How
-
- 分布式框架
-
- 成熟的分布式系统
-
-
What
- 1.理清规模,负责,一致性要求等
- 2.明确稳定性要求,制定技术方案
-
学习者视角:后端开发必备技能
-
Why
-
- 后端开发必备技能
-
- 帮助理解后台服务器之间协作的机理
-
-
How
-
- 掌握分布式理论
-
- 了解一致性协议
-
-
What
-
- 把要点深入展开,针对难点搜索互联网资料进行学习
-
- 将所学知识运用于实践
-
3. 常见的分布式系统
-
分布式存储:
- GFS(Google File System) : google分布式文件系统
- Ceph : 统一分布式存储系统
- Hadoop HDFS : 基于GFS架构的开源分布式文件系统
- Zookeeper : 高可用的分布式数据管理与系统协调框架
-
分布式数据库:
- Google Spanner : google可扩展,全球分布式的数据库
- TiDB : 开源分布式关系型数据库
- HBase : 开源Nosql数据库
- MangoDB : 文档数据库
-
分布式计算:
- Hadoop : 基于MapReduce分布式计算框架
- YARN : 分布式资源调度
- Spark : 在Hadoop基础之上,使用内存开存储数据
二. 系统模型
1.故障模型
-
六种故障模型,从处理的难易程度分类
- Byzantine failure:节点可以任意篡改发送给其他节点的数据,是最难处理的故障
- Authentication detectable byzantine failure (ADB):节点可以篡改数据,但不能伪造其他节点的数据
- Performance failure:节点未在特定时间段内收到数据,即时间太早或太晚
- Omission failure:节点收到数据的时间无限晚,即收不到数据
- Crash failure:在Omission failure基础上,节点停止响应,持续性的故障
- Fail-stop failure:在Crash failure基础上,错误可检测,是最容易处理的故障
-
故障模型举例,按照模型分类
- 磁盘故障 : Fail-stop
- 磁盘坏道、坏块 : Fail-stop,ADB
- 服务器主板或板卡故障(短路或者SCSO/RAID卡造成的死机) : Crash
- 网络故障(电影故障,背板故障等,网卡位反转,网络流量大造成大量丢包等) : Crash
- 网络分区(网络引起节点形成不同的子集,子集中网络相通,子集间网络不通) : Byzantine,Omission
- cpu故障 : Omission,Crash
- 内存故障 : ADB
- 线缆故障 : Preformance,Omission
- 电源故障 : Omission
- 内核崩溃 : Crash
- 软件故障 : Byzantine,Crash等
2.拜占庭将军问题(Byzantine)
-
两将军问题
-
定义:
- 两支军队的将军只能派信使穿越敌方领土互相通信,以此约定进攻时间。该问题希望求解如何在两名将军派出的任何信使都可能被俘虏的情况下,就进攻时间达成共识
-
结论:
- 两将军问题是被证实无解的电脑通信问题,两支军队理论上永远无法达成共识
-
TCP三次握手(确认包的系列号,超时重试)是两将军问题的一个工程解
-
-
三将军问题:
- 两个“忠将”A和B,一个“叛徒”C,互相传递消息,消息可能丢失,也可能被篡改,当有一个将军是“叛徒”(即出现拜占庭故障)时,整个系统无法达成一致。
- 由于“叛徒”C的存在,将军A和将军B获得不同的信息。这样将军A获得2票进攻1票撤退的信息,将军B获得1票进攻2票撤退的信息,产生了不一致
-
四将军问题:
-
将军D作为消息分发中枢,约定如果没收到消息则执行撤退
-
步骤:
- 如果D为“叛徒”,ABC无论收到任何消息,总能达成一致
- D为“忠将”,ABC有2人将D的消息进行正确的传递,同样能保证最终决策符合大多数。
-
进而能够证明,当有3m+1个将军,m个“叛徒”时,可以进行m轮协商,最终达成一致
-
3.共识和一致性
- 客户端A读到x=0,当客户端C正在写入时,客户端A和B可能读到0或者1.但是当C写入完成后,A和B最终能读到一致的数据.
- 不同客户端A和B看到客户端C写入,因为时机的不同,产生数据读取的偏差,导致最终一致性
- 客户端A读到更新的版本x=1后,及时将信息同步到其他客户端,这样其他客户端就能立即获取到x=1.
- 要保证所有客户端看到相同的值,需要多节点进行“协商”,达成共识,来保证线性一致性
- 一致性和可用性是对矛盾
4.时间和事件顺序
-
1978年Leslie Lamport发表《Time, Clocks, and the Ordering of Events in a Distributed System》
-
定义了计算机系统中的时间和事件顺序,引入happened before和并发的定义,可以以此对分布式系统中的事件进行推导
- happened before关系,记为*->*.满足下面三个条件:
- 如果a和b是相同节点上的两个事件,a在b之前发生,则定义:a->b
- 如果事件a表示某个节点发送某条消息,b是另一个节点接收这条消息,则有a->b
- 如果有a->b且b->c,则有a->c
- 当且仅当a*!->b且b!->*a时,我们称两个事件为并发的.
- happened before关系,记为*->*.满足下面三个条件:
-
根据上述推导,创造了Lamport逻辑时钟的概念,这个概念在分布式理论中具有革命性的意义,帮助我们在一系列分布式事件当中梳理出逻辑的先后关系。利用逻辑时钟,我们可以对整个系统中的事件进行全序排序
- 对于每一个节点Pi,我们定义时钟Ci为一个函数,它为任意的事件a赋值编码为Ci(a).
- 1.如果a和b是在相同节点Pi上的两件事,a在b之前发生,则有Ci(a) < Ci(b)
- 2.如果事件a表示节点Pi发送某条消息,b表示节点Pj接受这条消息,则有Ci(a) < Ci(b)
- 对于每一个节点Pi,我们定义时钟Ci为一个函数,它为任意的事件a赋值编码为Ci(a).
三. 理论模型
1.CAP理论
-
CAP的定义,分别代表一致性、可用性、分区容错性。三者无法同时达到
- C : 一致性,指数据在多个副本之间能够保持一致的特性.
- A : 可用性,指系统提供的服务必须一致处于可用的状态,每次请求都能获取到非错的响应--但是不保证获取的数据为最新数据.
- P : 区分容错性 : 分布式系统在遇到任何网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务,除非整个网络环境都发生了故障.
-
CAP诞生了三类系统:
- CA系统:传统数据库的代表,放弃分区容错性,加强一致性、可用性.
- AP系统:放弃强一致性,保证高可用和区分容错性,不少nosql存储系统采用
- CP系统:放弃可用性,保证数据一致性
-
举例说明两个分布式进程之间同步数据,当出现故障的时候,如何选择不同的CAP系统,以及带来的影响
- CP系统:故障发生时,为了避免读到不一致的数据,可能拒绝访问
- AP系统:故障发生时,为了保证可用性,允许不同进程读到不同的数据
-
针对故障场景,可以通过故障转移的方式,做一个相对较优的解决方式:
- 允许一个进程作为Master,其他进程作为Backup
- 所有请求都由Master处理,当故障时将请求转移给Backup进行处理
2.ACID理论
- ACID理论是针对CA系统而言的,通常在数据库中具有广泛意义
- 事务是数据库系统中非常重要的概念,它是数据库管理系统执行过程中的一个逻辑单元,它能够保证一个事务中的所有操作要么全部执行,要么全都不执行
- 数据库事务拥有四个特性ACID:原子性(Atomicity)、一致性(Consistency)、隔离性(Isolation)和持久性(Durability)
- 原子性(A) : 原子性是指事务包含的所有操作要么全部成功,要么全都失败回滚.
- 一致性(C) : 事务一致性是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之后都必须处于一致性状态.
- 隔离性(I) : 隔离性是当多个用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多个并发事务之间要相互隔离
- 持久性(D) : 持久性是指一个事务一旦被提交了,那么对数据库中的数据的改变就是永久性的,即使是在数据库系统遇到故障的情况下也不会丢失提交事务的操作.
3.BASE理论
-
BASE理论是针对AP系统而言的,其来源于对大型互联网分布式实践的总结
- Basically Available(基本可用):假设系统,出现了不可预知的故障,但还是能用,相比正常系统而言:响应时间上的损失或者功能上的损失.
- Soft state(软状态):允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延迟.
- Eventually consistent(最终一致性):系统保证没有其他新的更新操作的情况下,数据最终一定能够达到一致的状态.
四. 分布式事务
1.二阶段提交
-
定义:
- 二阶段提交(Two-phase Commit):为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种演算法。
-
三个假设:
- 协调者(Coordinator)和参与者(Participants)进行通信
- 预写式日志被保持在可靠的存储设备上
- 所有节点不会永久性损坏,即使损坏后仍然可以恢复
-
正常流程:Prepare阶段和Commit阶段
-
Prepare阶段
-
Commit阶段
-
异常流程:
- Prepare阶段失败 -> 回滚;
- 协调者宕机 -> 重新启用新的协调者;
- 双故障重启 -> 数据库管理员介入
-
两阶段提交需解决的问题:
- 性能问题:需要多次网络通信,耗时过大,资源需要锁定,徒增等待时间
- 协调者单点故障问题 : 如果事务协调者节点宕机,需要另起新的协调者,否则参与者处于中间状态无法完成事务.
- 新协调者:如何确定状态选出新协调者
- Commit阶段网络分区带来的数据不一致:非所有节点都收到Commit请求
-
两个思考:
- 日志被保存在「可靠」的存储设备上。如何保证这一点?
- 建立分布式文件系统等达到这个目的.
- 参与者Commit了,但Ack信息协调者没收到。怎么办?
- 回滚重做
- 日志被保存在「可靠」的存储设备上。如何保证这一点?
2.三阶段提交
- 针对两阶段提交的补充,将两阶段提交中的Prepare阶段,拆成两部分:CanCommit和PreCommit机制
- CanCommit阶段:询问是否可以执行
- PreCommit阶段:重新确认是否可以执行
- DoCommit阶段:向所有人提交事务
- 解决问题
-
- 单点故障问题
-
- 阻塞问题
-
- 引入超时机制,在等待超时后,会继续进行事务的提交.
- 存在的问题
- 1.性能问题
- 2.网络分区场景带来的数据一致性问题
3.MVCC
-
MVCC:多版本并发控制的方法。维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读.为每一个修改保存一个版本,和事务的时间戳相关联.提高并发性能的同时也解决了脏读的问题。
-
悲观锁和乐观锁
- 悲观锁:操作数据时直接把数据锁住,直到操作完成后才会释放锁;上锁期间其他人不能修改数据
- 乐观锁:不会上锁,只是在执行更新时判断别人是否修改数据,只有冲突时才放弃操作
-
版本的选取:使用物理时钟或逻辑时钟
- 物理时钟:提供TrueTime API,有Master节点维持一个绝对时间,保证各个服务器之间时钟误差控制在ϵ内,通常ϵ<7ms。
- 逻辑时钟:中心化授时的方式--时间戳预言机(TSO),需要每个节点都与它交互,会产生一些网络通信成本,好处是无需硬件的支持
五. 共识协议
1.Quorum NWR模型
-
三要素:
- N:在分布式存储系统中,有多少份备份数据
- W:代表一次成功的更新操作要求至少有w份数据写入成功
- R: 代表一次成功的读数据操作要求至少有R份数据成功读取
- 为了保证强一致性,需要保证 W+R>N
-
Quorum NWR模型将CAP的选择交给用户,是一种简化版的一致性模型
-
引起的并发更新问题
- 如果允许数据被覆盖,则并发更新容易引起一致性问题
- 例如: 三份数据,第一份为最后一次更新正常,值为3;第二,三份更新失败,值为2,读到第一份和读到二三份的情况就会不一样,这样就不符合强一致了.
2.RAFT协议
Raft协议是一种分布式一致性算法(共识算法),即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。Raft是使用较为广泛的分布式协议。
-
三种角色
- Leader - 领导者:Leader 负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志
- Follower - 跟随者:接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志
- Candidate - 备选者:Leader选举过程中的临时角色。向其他节点发送请求投票信息
-
四种定义:
- Log(日志):节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题
- Term(任期号):单调递增,每个Term内最多只有一个Leader
- Committed:日志被复制到多数派节点,即可认为已经被提交
- Applied:日志被应用到本地状态机:执行了log中命令,修改了内存状态
-
状态转移:
-
Leader选举过程:
-
初始全部为Follower
-
Current Term + 1
-
选举自己
-
向其它参与者发起RequestVote请求,retry直到
- 收到多数派请求,成为Leader,并发送心跳
- 收到其它Leader的请求,转为Follower,更新自己的Term
- 收到部分,但未达到多数派,选举超时,随机timeout开始下一轮
-
-
Log Replication过程:
-
新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志
-
1.Leader收到请求w
-
2.将w写入本地log
-
3.向其他Follower发起AppendEntries RPC
-
4.等待多数派回复
- 更新本地状态机,返回给客户端
- 下一个心跳通知Follower上一个Log已经被Committed了
- Follower也根据命令应用本地状态机
-
5.Follower有问题,Leader一直retry.
-
-
切主:当Leader出现问题时,就需要进行重新选举
- Leader发现失去Follower的响应,失去Leader身份
- 两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
- Leader自杀重启,以Follower的身份加入进来
-
Stale读:
- 发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read(双主)
- 保证读的强一致
- 读操作在lease timeout内,默认自己是leader;不是则发起一次heartbeat.等待Commit Index应用到状态机.
- Election timeout > lease timeout : 新leader上任,自从上次心跳之后一定超过了Election timeout,旧leader大概率能够发现自己的Lease过期.
3.Paxos协议
-
Paxos算法与RAFT算法区别:
- Multi-Paxos 可以并发修改日志,而Raft写日志操作必须是连续的
- Multi-Paxos 可以随机选主,不必最新最全的节点当选Leader
-
优劣势
- 优势:写入并发性能高,所有节点都能写
- 劣势:没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录