这是我参与「第四届青训营 」笔记创作活动的第3天
数据流和动态表的概念
传统SQL和流处理
数据流和动态表之间的转换
动态表 : 随时间不断变化的表,在任意时刻,可以像查询静态批处理表一样查询它们
如图,在stream不断流入数据从而形成动态表。对于这个动态表可以不断进行SQL查询,然后有得到另一个动态表。而这个动态表是因为查询从不终止(Continuous Queries: 连续查询),并且查询结果不断更新。
查询的对比
这种可以理解成一条一条处理,对于新的数据,我们需要去更新先前输出的结果,即定义结果的changelog流包含INSERT和UPDATE操作。
这种是按小时分组每一组的结果输出到一张表中,是所以结果表的changelog流只包含INSERT操作
这种就是需要引用Retract机制,对于新的stream数据,需要查询state,然后根据state取retract数据和insert数据。
Exactly-Once和Checkpoint的原理概述
制作快照的时间点
对于stream流计算这里可以抽象成数字流进行计算,这里有三个计算:
- source:对数据流进行读取
- sum_evem:对偶数进行累加,称为偶数累加器
- sum_odd:对奇数进行累加,称为奇数累加器
假设我们对于消费5的时候做一个备份,保存它的消费位点以及当前的累加和。然后我们消费6,此时没有出现问题,但是到我们消费7的时候,sum_odd出现问题,导致作业运行不下去。当我们修复这个问题后,重启作业,然后拿上一个保存点的状态去恢复之前的状态,然后从5之后从新消费6、7,这样保证了数据不丢不重。
制作快照的时间点:需要等待所有处理逻辑消费完成source保留状态及之前的数据。
快照制造算法:
- 暂停处理输入的数据
- 等待后续所有处理算子消费当前已经输入的数据
- 待2处理完后,作业所有算子复制自己的状态并保存到远端可靠存储
- 恢复对输入数据的处理
如何制作快照
- 快照制作的开始
在这个过程中JM会向source发送CheckpointBarrier表示制作开始。
- source算子的处理
各个source保存自己状态后,向所有连接的下游继续发送Checkpoint Barrier,同时告知JM自己状态已经制作完成,之后可以继续处理数据,不需要等待下游的算子的制作。
- Barrier Alignment
在这个过程中:
- 算子会等待所有上游的barrier到达后才开始快照的制作
- 已经制作完成的上有算子会继续处理数据,并不会被下游算子制作快照的过程阻塞
- checkpoint的结束
所有算子都告知JM状态制作完成后,整个Checkpoint就结束了
端到端Exactly-Once实现
- checkpoint能保证每条数据都对各个有状态的算子更新一次,sink输出算子仍然可能下发重复的数据;
- 严格意义的端到端的Exactly-once语义需要特殊的sink算子实现。
两阶段提交协议
在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事务性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑,这个中心节点叫做协作者(Coordinator) ,被中心节点调度的其他业务节点叫做参与者(Participant) 。
- 预提交阶段
- 协作者向所有参与者发送一个comit消息;
- 每个参与的协作者收到消息后,执行事务,但是不真正提交
- 若事务成功执行完成,发送一个成功的消息(vote yes);执行失败,则发送一个失败的消息(vote no)
- 提交阶段
若协作者成功接收到所有的参与者vote.yes的消息:
- 协作者向所有参与者发送一个commit消息
- 每个收到commit消息的参与者释放执行事务所需的资源,并结束这次事物的执行;
- 完成步骤2后,参与者发送一个ack消息给协作者;
- 协作者收到所有参与者的ack消息后,标识该事务执行完成
若协作者有收到参与者vote.no的消息(或者发生等待超时):
- 协作者向所以有参与者发送一个rollback消息;
- 每个收到rollback消息的参与者回滚事务的执行操作,并释放事务所占资源;
- 完成步骤2后,参与者发送一个ack消息给协作者;
- 协作者收到所有参与者的ack消息后,表示该事务成功完成回滚。
两阶段提交协议总结:
-
事务开启: 在sink task向下游写数据之前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读;
-
预提交阶段:JM开始下发Checkpoint Barrier,当各个处理逻辑接收到barrier后停止处理后续数据,对当前状态制作快照,此时sink也不再当前事务下继续处理数据(处理后续的数据需要新打开下一个事务)。状态制作成功则向JM发送成功的消息,失败则发送失败的消息;数据已经写到kafka,但没有commit,下游不可读。
-
提交阶段:若JM收到所有预提交成功的消息,则向所有处理逻辑(包括sink)发送可以提交此次事务的消息,sink接收到此消息后,则完成此次事物的提交,下一次恢复可以从这个点安全的从新写数据,此时下游可以读到这次事务写入的数据;若JM有收到预提交失败的消息,则通知所有处理逻辑回滚这次事物的操作,此时sink 搜到回滚时,将kafka中所有的数据丢弃,下游永远不会读到,consumer负责读kafka的数据会直接跳过,读下一部分的数据。
两阶段提交协议在 Flink 中的应用
Flink 中协作者和参与者的角色分配
协作者(JobManager)发起阶段一提交
各算子 Checkpoint 的制作
提交阶段及 Checkpoint 的制作完成
账单计算服务案例
- 在上次记录的位点之后,从Kafka中读取固定大小的数据;
- 对比该批数据进行去重和聚合计算;
- 处理完成后写入Mysql中,若全部写入成功,则记录当前读取到的消息的终止位置;若处理或者写入失败,则不记录位点
- 跳回步骤1
存在的问题
- 非严格的端到端的Exactly-Once语义:若该批数据处理完成后,再写入MySQL中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入
- 去重能力有限:只能在当前处理的一批数据内进行去重,无法在批与批之间进行去重
Flink解决方案优势
- 严格意义上的端到端的Exactly-Once语义:下游读到的数据是不丢不重的;
- 增强的去重能力:可以在更长的时间维度对数据进行去重