分布式理论|青训营笔记

79 阅读12分钟

这是我参与「第五届青训营」伴学笔记创作活动的第9天。

一、分布式概述

1、什么是分布式

分布式系统是计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标。可以分为分布式计算、分布式存储、分布式数据库等。

  • 优势:

去中心化
低成本
弹性
资源共享
可靠性高

  • 挑战:

普遍的节点故障
不可靠的网络
异构的机器与硬件环境
安全

2、Why-How-What

  • 使用者视角:

Why:
数据爆炸,对存储和计算有大规模运用的述求
成本低,构建在廉价服务器之上
How:
分布式框架
成熟的分布式系统
What:
理清规模,负载,一致性要求等
明确稳定性要求,制定技术方案

  • 学习者视角:

Why:
后端开发必备技能
帮助理解后台服务器之间协作的机理
How:
掌握分布式理论 了解一致性协议
What:
把要点深入展开,针对难点搜索互联网资料进行学习 将所学知识运用于实践

3、常见的分布式系统

分布式存储:Google File System;Ceph;Hadoop HDFS;Zookeeper。
分布式数据库:Google Spanner;TiDB;HBase;MongoDB。
分布式计算:Hadoop;Spark;YARN。

二、系统模型

1、故障模型

故障描述
磁盘故障如:磁头不寻道、盘片不转、磁介质损伤等。年发生率1-2%
磁盘坏道、坏块磁头划伤引起坏道,或受宇宙射线影响晶体管产生位反转
服务器主板、板卡故障可能是风扇故障,或灰尘引起的短路,或SCSI/RAID卡造成的死机
网络故障电源故障、背板故障等,网卡位反转、网络流量大造成大量丢包等
网络分区网络引起节点形成不同的子集,子集中网络相通,子集间网络不通
内存故障内存出错造成的数据被篡改,分为UE、CE两种
线缆故障服务器光模块频繁up或down
内核崩溃内核内部的致命错误,产生的kernel panic
CPU故障年故障率接近1%
电源故障服务器失去电力支撑
软件故障如:进程crash、内存踩坏、状态不一致、配置错误、软件bug等

2、共识和一致性

客户端A读到x=0,当客户端C正在写入时,客户端A和B可能读到0或者1。但是当C写入完成后,A和B最终能读到一致的数据。我们称这样的一致性为Eventually consistent(最终一致性)。
当客户端A读到更新的版本x=1后,及时将消息同步给其他客户端,这样其他客户端立即能获取到x=1。我们称这样的一致性为Linearizability(线性一致性)。
如果要保证“线性”一致性,多个节点间势必需要进行协商,以寻求一致。这样增加了延迟,系统可用性便会受损。

3、时间和事件顺序

1978年Leslie Lamport发表在Communications of the ACM上的论文Time,Clocks,and the Ordering of Events in a Distributed System。
我们定义“happened before”关系,记为“→”。其满足如下三个条件:

  • 如果a和b是在相同节点上的两个事件,a在b之前发生,则定义:a→b
  • 如果事件a表示某个节点发送某条消息,b是另一个节点接受这条消息,则有a→b
  • 如果有a→b且b→c,则有a→c 当且仅当a≠b且b≠a时,我们称两个事件为并发的(concurrent)。

三、理论基础

1、CAP理论

C:一致性,指数据在多个副本之间能够保持一致的特性。
A:可用性,指系统提供的服务必须一直处于可用的状态,每次请求都能获取到非错的响应,不能保证获取的数据为最新数据。
P:分区容错性,分布式系统在遇到任何网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务,除非整个网络环境都发生了故障。

CAP理论往往运用于数据库领域,也可以适用于分布式存储方向。
CA:放弃分区容错性,加强一致性和可用性。
AP:放弃一致性,追求分区容错性和可用性。
CP:放弃可用性,追求一致性和分区容错性。

2、ACID理论

事务时数据库系统中非常重要的概念,是数据库管理系统执行过程中的一个逻辑单元,能够保证一个事务中的所有操作要么全部执行,要么全不执行。
数据库事务拥有四个特性ACID,即分别是原子性、一致性、隔离性和持久性。

原子性(A)。原子性是指事务包含的所有操作要么全部成功,要么全部失败回滚。
一致性(C)。一致性是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之后都必须处于一致性状态。
隔离性(I)。隔离性是当多用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多个并发事务之间要相互隔离。
持久性(D)。持久性是指一个事务一旦被提交了,那么对数据库中的数据的改变就是永久性的,即便是在数据库系统遇到故障的情况下也不会丢失提交事务的操作。

3、BASE理论

Base理论是对CAP中一致性和可用性权衡的结果,其来源于对大型互联网分布式实践的总结,是基于CAP定理逐步演化而来的。其核心思想是:

Basically Available(基本可用):假设系统出现了不可预知的故障,但还是能用,相比较正常的系统而言:响应时间上的损失,或功能上的损失 。
Soft state(软状态):允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延时。
Eventually consistent(最终一致性):系统能够保证在没有其他新的更新操作的情况下,数据最终一定能够达到一致的状态,因此所有客户端对系统的数据访问最终都能够获取到最新的值。

三、分布式事务

1、二阶段提交

二阶段提交(Two-phase Commit):为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种演算法。
三个假设:

1.引入协调者(Coordinator)和参与者(Participants),互相进行网络通信
2.所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上
3.所有节点不会永久性损坏,即使损坏后仍然可以恢复

可能出现的情况:

情况1:Coordinator不宕机,Participant宕机。
情况2:Coordinator宕机,Participant不宕机。可以起新的协调者,待查询状态后,重复二阶段提交
情况3:Coordinator宕机,Participant宕机。

回滚:在Prepare阶段,如果某个事务参与者反馈失败消息,说明该节点的本地事务执行不成功,必须回滚。
情况3:无法确认状态,需要数据库管理员的介入,防止数据库进入一个不一致的状态。

两阶段提交需注意的问题:

1.性能问题
两阶段提交需要多次节点间的网络通信,耗时过大,资源需要进行锁定,徒增资源等待时间。
2.协调者单点故障问题
如果事务协调者节点宕机,需要另起新的协调者,否则参与者处于中间状态无法完成事务。
3.网络分区带来的数据不一致
一部分参与者收到了Commit消息,另一部分参与者没收到Commit消息,会导致了节点之间数据不一致。

2、三阶段提交

三阶段提交vs两阶段提交
将两阶段提交中的Prepare阶段,拆成两部分:CanCommit和PreCommit机制
解决了两个问题:
1.单点故障问题
2.阻塞问题
另外引入超时机制,在等待超时之后,会继续进行事务的提交。

三阶段缓和了两阶段面临的问题,但依然没有解决:
1.性能问题
2.网络分区场景带来的数据一致性问题

3、MVCC

MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC为每个修改保存一个版本,和事务的时间戳相关联。可以提高并发性能,解决脏读的问题。
Spanner 论文里通过 TrueTime API 提供一个物理时钟的方式。服务器时钟偏差在1到7ms之间。
另外一种时间戳的实现:时间戳预言机(TSO),采用中心化的授时方式,所有协调者向中心化节点获取时钟。优点是算法简单,实现方便,但需要每个节点都与他进行交互,会产生一些网络通信的成本。TSO的授时中就需要考虑低延迟,高性能以及更好的容错性。

四、共识协议

1、Quorum NWR三要素

Quorum NWR三要素
N:在分布式存储系统中,有多少份备份数据
W:代表一次成功的更新操作要求至少有w份数据写入成功
R:代表一次成功的读数据操作要求至少有R份数据成功读取

为了保证强一致性,需要保证W+R>N

Quorum NWR模型将CAP的选择交给用户,是一种简化版的一致性模型。

2、RAFT协议

Raft协议是一种分布式一致性算法(共识算法),即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。Raft是使用较为广泛的分布式协议。一定意义上讲,RAFT也使用了Ouorum机制。

Leader-领导者,通常一个系统中是一主(Leader)多从(Follower)。Leader负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志。
Follower-跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader出现故障时,主动推荐自己为Candidate。
Candidate-备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。

Log(日志):节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题
Term(任期号):单调递增,每个Term内最多只有一个Leader
Committed:日志被复制到多数派节点,即可认为已经被提交
Applied:日志被应用到本地状态机:执行了log中命令,修改了内存状态

Leader选举过程:

1.初始全部为Follower
2.Current Term+1
3.选举自己
4.向其它参与者发起RequestVote请求,retry直到
-收到多数派请求,成为Leader,并发送心跳
-收到其它Leader的请求,转为Follower,更新自己的Term
-收到部分,但未达到多数派,选举超时,随机timeout开始下一轮

两个规则
-在一个任期内每个参与者最多投一票(持久化)
-要成为Leader,必须拿到多数投票

Log Replication过程:
新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志

1.Leader收到写请求w
2.将w写入本地log
3.向其它Follower发起AppendEntries RPC
4.等待多数派回复
-更新本地状态机,返回给客户端
-下一个心跳通知Follower上一个Log已经被Committed了
-Follower也根据命令应用本地状态机
5.Follower有问题,Leader一直retry

切主:
当Leader出现问题时,就需要进行重新选举。

1.Leader发现失去Follower的响应,失去Leader身份
2.两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
3.Leader自杀重启,以Follower的身份加入进来

Stale读:
发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read。如何解决?
解决方案,保证读的强一致。
读操作在lease timeout内,默认自己是leader;不是则发起一次heartbeat。等待Commit Index 应用到状态机。
Election timeout > lease timeout:新leader 上任,自从上次心跳之后一定超过了Election timeout,旧leader大概率能够发现自己的Lease过期。

3、Paxos协议

Paxos算法与RAFT算法区别:

1.Multi-Paxos 可以并发修改日志,而Raft写日志操作必须是连续的
2.Multi-Paxos 可以随机选主,不必最新最全的节点当选Leader
Paxos优势:写入并发性能高,所有节点都能写入
Paxos劣势:没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录

Proposers

1)获取Proposal ID N
2)向所有Acceptors广播
4)接受过半数回复,选择Proposal最大的accepted_value作为共识
5)第二阶段,广播Accept(n,value)到所有节点
7)接收过半请求,如果有结果>n,更新新的提议,跳转1

Acceptors

3)如果n>min_proposal则min proposal:=n,返回accepted_value和Proposal
6)如果n>=min_proposal则min proposal:=n,accepted_value:=value本地持久化,返回

五、分布式实践

1、MapReduce

Mapper:将输入分解为多个Job来并行处理,彼此间几乎没有依赖关系
Shuffle:将mapper结果打乱,防止数据倾斜
Reducer:对map阶段的结果进行全局汇总

2、分布式KV

架构:
将海量结构化数据根据Key分成不同的Region,每个Region构建一个单机KV数据库,Region之间形成Raft Groups,做到强一致
容错:
当Node故障时,通过Raft Learner模式进行数据修复
弹性:
当出现局部Key热点或数据膨胀时,Region可以进行Split操作,分成两个子 Region,反之收缩时进行Merge操作