这是我参与「第四届青训营」笔记创作活动的第 4 天。
一、笔记内容
1. 数据流和动态表
2. Exactly-Once 和 Checkpoint
3. 端到端 Exactly-Once 实现
4. Flink 案例讲解
二、数据流和动态表
1.传统SQL和流处理
| 特征 | SQL | 流处理 |
|---|---|---|
| 处理数据的有界性 | 处理的表是有界的 | 流是一个无限元组序列 |
| 处理数据的完整性 | 执行查询可以访问完整数据 | 执行查询无法访问所有数据 |
| 执行时间 | 批处理查询产生固定大小结果后终止 | 查询不断更新结果,永不终止 |
2.数据流和动态表的转换
graph TD
Stream1 --> DynamicTable1 --> ContinuousQueries(state) --> DynamicTable2 -->Stream2
1.动态表
下图显示了单击事件流如何转换为表。当插入更多的单击流记录时,结果表将不断增长。
动态表: 随时间不断变化的表,在任意时刻,可以像查询静态批处理表一样查询它们。
2.连续查询
连续查询特点:
-
查询从不终止。
-
查询结果会不断更新,并且会产生一个新的动态表。
-
结果的动态表也可转换成输出的实时流。
1、查询产生追加并更新数据的动态表:更新先前表的输出结果,即定义结果表的changelog流包含INSERT和UPDATE操作。
2.查询产生仅追加数据的动态表:查询结果只附加到结果表,即结果表的changelog流只包含INSERT操作。
3.Retract消息
1.Append-only Stream: Append-only 流,只有 INSERT 消息。
2.Retract Stream: Retract 流,同时包含 INSERT 消息和 DELETE 消息。如下图,Mary查询出一次,Bob查询出一次,当再次查询到Mary时,Retract 前面的Mary记录,新增一条记录,表示Mary被查询到了两次。
3.Upsert Stream::Upsert 流,同时包含 UPSERT 消息和 DELETE 消息,如下图。
4.状态
在流式计算中,会存在有状态的计算逻辑(算子),有状态的算子典型处理逻辑如下图所示:
查询时的状态,用来不断更新查询结果。如需要计算某个用户在网上的点击量,该用户在网站当前的总点击次数就是算子状态,对于新的输入数据,先判断是否是该用户的点击行为,如果是,则将保留的点击次数(状态)增加一,并将当前累加结果输出。
三、Exactly-Once 和 Checkpoint
1.不同数据处理保证的语义
-
At-most-once:每条数据消费至多一次。
-
出现故障时,什么也不做。
-
数据处理不保证任何语义,处理延迟低。
-
-
At-least-once:每条数据消费至少一次;
- 一条数据可能存在重复消费。
-
Exactly-once: 每条数据都被消费且仅被消费一次。
- 最严格的处理语义,仿佛故障从未发生。
2.状态快照与恢复
如下图:判断输入元素的奇偶,进而计算奇数和和偶数和。
从图我们可知,对7进行奇数求和时失败。重启应用后,计算结果和将进行计算的数据都消失了。此时我们从CheckPoint中重启应用状态,应用回退到计算失败的上一步,并从中取出上一步的计算结果和待计算的数据。一切准备就绪后,计算继续进行。
3.制作快照的时间点
状态恢复的时间点:需要等待所有处理逻辑消费完成source保留状态及之前的数据。
一个简单的快照制作算法:
1.暂停处理输入的数据;
2.等待后续所有处理算子消费当前已经输入的数据;
3.待2处理完后,作业所有算子复制自己的状态并保存到远端可靠存储;
4.恢复对输入数据的处理。
3.Chandy-Lamport算法
1. Checkpoint barrier 的下发
每一个source算子都接收到JM发送的 Checkpoint Barrier,标识状态快照制作的开始。
2. 算子状态制作和 barrier 传递
各个source保存自己状态后,向所有连接的下游继续发送Checkpoint Barrier,同时告知JM自己状态已经制作完成。
3. 多个上游的等待 barrier 对齐现象
-
算子会等待所有上游的barrier 到达后才开始快照的制作;
-
已经制作完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程阻塞。
4. Checkpoint 并不阻塞算子数据处理
快照制作和处理数据的解耦。
5. Checkpoint ACK和制作完成
所有算子都告知JM状态制作完成后,整个Checkpoint就结束了。
4.Checkpoint 对作业性能的影响
-
解耦了快照制作和数据处理过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作完成快照;
-
在快照制作和Barrier Alignment过程中需要暂停处理数据,仍然会增加数据处理延迟;
-
快照保存到远端也有可能极为耗时。
四、端到端 Exactly-Once 实现
-
Checkpoint能保证每条数据都对各个有状态的算子更新—次,sink 输出算子仍然可能下发重复的数据;
-
严格意义的端到端的Exactly-once语义需要特殊的sink算子实现。
1.两阶段提交协议(2PC)
在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事务性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑,这个中心节点叫做协作者(coordinator) ,被中心节点调度的其他业务节点叫做参与者(participant) 。
-
Coordinator:同步和协调所有节点处理逻辑的中心节点;
-
Participant:被中心节点调度的其他执行处理逻辑的业务节点。
1.预提交阶段
1.协作者向所有参与者发送一个commit消息;
2.每个参与的协作者收到消息后,执行事务,但是不真正提交;
3.若事务成功执行完成,发送一个成功的消息(vote yes);执行失败,则发送一个失败的消息(vote no)。
2.提交阶段
1. 若协作者成功接收到所有的参与者vote yes的消息:
-
协作者向所有参与者发送一个commit 消息;
-
每个收到commit消息的参与者释放执行事务所需的资源,并结束这次事务的执行;
-
完成步骤2后,参与者发送一个ack消息给协作者;
-
协作者收到所有参与者的ack消息后,标识该事务执行完成。
2. 若协作者有收到参与者vote no的消息(或者发生等待超时):
-
协作者向所有参与者发送一个rollback 消息;
-
每个收到 rollback消息的参与者回滚事务的执行操作,并释放事务所占资源;
-
完成步骤2后,参与者发送一个ack 消息给协作者;
-
协作者收到所有参与者的ack消息后,标识该事务成功完成回滚。
2.两阶段提交协议在 Flink 中的应用
1.Flink 中协作者和参与者的角色分配
2.协作者(JobManager)发起提交
3.各算子 Checkpoint 的制作
4.提交阶段及 Checkpoint 的制作完成
五、Flink 案例讲解
账单计算服务:从 Kafka中读取账单消息,进行处理后写入到MySQL中。
执行步骤
1. 在上次记录的位点之后,从 Kafka中读取固定大小的数据;
2. 对该批数据进行去重和聚合计算;
3. 处理完成后写入 Mysql中,若全部写入成功,则记录下当前读取到的消息的终止位置;若处理或者写入失败,则不记录位点;
4. 跳回步骤1。
存在问题
1. 非严格意义上的端到端的Exactly-Once语义:若该批数据处理完成后,在写入MySQL中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入;
2. 去重能力有限:只能在当前处理的一批数据内进行去重,无法在批与批之间进行去重。
使用Flink解决方案的优势
1、严格意义上的端到端的 Exactly-Once语义:下游读到的数据是不丢不重的;
2、增强的去重能力:可以在更长的时间维度对数据进行去重。