这是我参与【第五届青训营】伴学笔记创作活动的第6天
分布式理论
什么是分布式?
分布式系统是计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标。可以分为分布式计算、分布式存储、分布式数据库等
优势 :
- 中心化
- 低成本
- 弹性
- 资源共享
- 可靠性高
挑战:
- 普遍的节点故障
- 不可靠的网络
- 异构的机器与硬件环境
- 安全
常见的分布式系统
分布式存储
- Google File System (GFS) : google分布式文件系统
- Ceph: 统一的分布式存储系统
- Hadoop HDFS: 基于GFS架构的开源分布式文件系统
- Zookeeper: 高可用的分布式数据管理与系统协调框架
分布式数据库
- Google Spanner: google可扩展的、全球分布式的数据库
- TiDB: 开源分布式关系型数据库
- HBase: 开源Nosql数据库
- MongoDB: 文档数据库
分布式计算
- Hadoop: 基于MapReduce分布式计算框架
- Spark: 在Hadoop基础之上,使用内存来存储数据
- YARN: 分布式资源调度
系统模型
故障模型
- Byzantine failure: 节点可以任意篡改发送给其他节点的数据
- Authentication detectable byzantine failure(ADB): Byzantine failure的特例;节点可以算改数据但不能伪造其他节点的数据
- Performance failure: 节点未在特定时间段内收到数据,即时间太早或太晚
- Omission failure: 节点收到数据的时间无限晚,即收不到数据
- Crash failure: 在omission failure的基础上,增加了节点停止响应的假设,也即持续性地omission failure
- Fail-stop failure: 在Crash failure的基础上增加了错误可检测的假设
由外向内越来越严重
共识和一致性
客户端A读到x=0,当客户端C正在写入时客户端A和B可能读到0或者1。但是当C写入完成后,A和B最终能读到一致的数据我们称这样的一致性为Eventuallyconsistent (最终一致性)
当客户端A读到更新的版本x=1后,及时将消息同步给其他客户端,这样其他客户端立即能获取到x=1。我们称这样的一致性为Linearizability (线性一致性,等同于强一致性) 如果要保证“线性”一致性,多个节点间势必需要进行协商,以寻求一致。这样增加了延迟,系统可用性便会受损。
理论基础
CAP理论
- C (Consistence)一致性,指数据在多个副本之间能够保持一致的特性 (严格的一致性)
- A (Availability) 可用性,指系统提供的服务必须一直处于可用的状态,每次请求都能获取到非错的响应一但是不保证获取的数据为最新数据。
- p(Network partitioning ) 分区容错性,分布式系统在遇到任何网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务,除非整个网络环境都发生了故障
CAP理论往往运用于数据库领域,同样可以适用于分布式存储方向
CA: 放弃分区容错性,加强一致性和可用性,其实就是传统的单机数据库的选择
AP: 放弃一致性( 这里说的一致性是强一致性 ),追求分区容错性和可用性例如一些注重用户体验的系统
CP : 放弃可用性,追求一致性和分区容错性,例如与钱财安全相关的系统
ACID理论
事务是数据库系统中非常重要的概念,它是数据库管理系统执行过程中的一个逻辑单元,它能够保证一个事务中的所有操作要么全部执行,要么全都不执行.数据库事务拥有四个特性ACID,即分别是原子性 (Atomicity) 、一致性(Consistency) 、隔离性 (lsolation) 和持久性 (Durability)
- 原子性 (A):原子性是指事务包含的所有操作要么全部成功,要么全部失败回滚。
- 一致性 (C):一致性是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之 后都必须处于一致性状态。
- 隔离性(I) :隔离性是当多个用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多个并发事务之间要相互隔离。
- 持久性(D):持久性是指一个事务一旦被提交了,那么对教据库中的数据的改变就是永久性的,即便是在数据库系统遇到故障的情况下也不会丢失提交事务的操作。
Base 理论
Base 理论是对 CAP 中一致性和可用性权衡的结果,其来源于对大型互联网分布式实践的总结,是基于 CAP 定理逐步演化而来的。其核心思想是:
- Basically Available(基本可用):假设系统,出现了不可预知的故魔,但还是能用,相比较正常的系统而言: 响应时间上的损失或功能上的损失。
- Soft state(软状态): 允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延时。
- Eventually consistent (最终一致性): 系统能够保证在没有其他新的更新作的情况下,数据最终一定能够达到一致的状态因此所有客户端对系统的数据访问最终都能够获取到最新的值。
分布式事务
二阶段提交
二阶段提交 (Two-phase Commit):为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种演算法。
三个假设: 1.引入协调者 (Coordinator) 和参与者(Participants) ,互相进行网络通信
2.所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上
3.所有节点不会永久性损坏,即使损坏后仍然可以恢复
可能出现的情况:
情况1) Coordinator不宕机,Participant宕机。如下图所示,需要进行回滚操作
情况2)Coordinator宕机,Participant不宕机。可以起新的协调者,待查询状态后,重复二阶段提交
情况3) Coordinator宕机,Participant宕机。
回滚: 在Prepare阶段,如果某个事务参与者反馈失败消息,说明该节点的本地事务执行不成功,必须回滚
情况3: 无法确认状态,需要数据库管理员的介入,防止数据库进入一个不一致的状态。
两阶段提交需注意的问题:
1.性能问题 两阶段提交需要多次节点间的网络通信,耗时过大,资源需要进行锁定,徒增资源等待时间。
2.协调者单点故障问题 如果事务协调者节点宕机,需要另起新的协调者,否则参与者处于中间状态无法完成事务.
3.网络分区带来的数据不一致 部分参与者收到了Commit消息,另一部分参与者没收到Commit消息,会导致了节点之间数据不一致。
三阶段提交
将两阶段提交中的Prepare阶段,拆成两部分CanCommit和PreCommit机制
解决了两个问题
1.单点故障问题 2.阻塞问题 另外引入超时机制,在等待超时之后,会继续进行事务的提交
MVCC
MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC为每个修改保存一个版本,和事务的时间戳相关联。可以提高并发性能,解决脏读的问题。
共识协议
Quorum NWR模型
Quorum NWR三要素 N: 在分布式存储系统中,有多少份备份数据
w: 代表一次成功的更新操作要求至少有w份数据写入成功
R: 代表一次成功的读数据操作要求至少有R份数据成功读取
为了保证强一致性,需要保证 W+R>N
Quorum NWR模型将CAP的选择交给用户,是一种简化版的一致性模型。
Raf协议
Raf协议是一种分布式一致性算法(共识算法),即使出现部分节点故障,网络延时等情况,也不影响各节点,进而提高系统的整体可用性。Raft是使用较为广泛的分布式协议。一定意义上讲,RAFT也使用了Quorum机制
- Leader - 领导者,通常一个系统中是一主 (Leader) 多从(Follower) 。Leader 负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志
- Follower - 跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader出现故障时,主动推荐自己为Candidate.
- Candidate - 备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。
Log (日志): 节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题
Term (任期号) : 单调递增,每个Term内最多只有一个LeaderCommitted: 日志被复制到多数派节点,即可认为已经被提交Applied: 日志
被应用到本地状态机: 执行了log中命令,修改了内存状态
Leade选举过程
1.初始全部为Follower
2.Current Term + 1
3.选举自己
4.向其它参与者发起RequestVote请求,retry直到
- 收到多数派请求,成为Leader,并发送心跳
- 收到其它Leader的请求,转为Follower,更新自己的Term
- 收到部分,但未达到多数派,选举超时,随机timeout开始下一轮
两个规则
- 在一个任期内每个参与者最多投一票 (持久化)
- 要成为Leader,必须拿到多数投票
Log Replication过程: 新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志
1.Leader收到写请求w
2.将w写入本地log
3.向其它Follower发起AppendEntries RPC
4.等待多数派回复
- 更新本地状态机,返回给客户端
- 下一个心跳通知Follower上一个Log已经被Committed了
- Follower也根据命令应用本地状态机
5.Follower有问题,Leader一直retry
切主: 当Leader出现问题时,就需要进行重新选举
1.Leader发现失去Follower的响应,失去Leader身份
2.两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
3.Leader自杀重启,以Follower的身份加入进来
Stale读: 发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read。如何解决?
解决方案,保证读的强一致
读操作在lease timeout内,默认自己是leader:不是则发起一次heartbeat。等待Commit Index应用到状态机。
Election timeout > lease timeout: 新leader上任,自从上次心跳之后一定超过了Electiontimeout,日leader大概率能够发现自己的Lease过期
Paxos协议
Paxos算法与RAFT算法区别:
1.Multi-Paxos 可以并发修改日志,而Raft写日志操作必须是连续的
2.Multi-Paxos 可以随机选主,不必最新最全的节点当选Leader
Paxos优势: 写入并发性能高,所有节点都能写入
Paxos劣势: 没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录
总结:
现如今时代的发展,随着用户量的增多,数据的增多,单机处理的能力已经无法满足要求,其处理瓶颈也无法突破,因此对于企业来说使用分布式存储则更符合当下的需求。同时伴随着分布式的发展,云存储和大数据的发展也是及其重要的,随着数据越来越庞大,对这些数据进行分析,挖掘其潜在价值也尤为重要