这是我参与「第四届青训营 」笔记创作活动的第3天
一、数据流和数据表
1. 传统 SQL 和 流式数据结合
| 特征 | SQL | 流处理 |
|---|---|---|
| 数据有界性 | 处理的表有界 | 流是一个无限元祖序列 |
| 数据完整性 | 查询可访问完整的数据 | 查询无法访问所有数据 |
| 执行时间 | 批处理查询产生固定大小结果后终止 | 查询不断更新结果,永不终止 |
SQL 需要先定义对象,就需要一个表的概念。
2. 数据流和动态表的转换
【数据流和表可以动态转换】
-
如何在实时流上定义表?
动态表:随时间不断变化的表,在任意时刻,可以像查询静态批处理表一样查询它们。
数据库表是 INSERT、UPDATE 和 DELETE 等 DML 语句的stream结果,通常称为 changelog stream.
(1)实时流到动态表的转换【流上定义表】
【流 动态表】
如图所示为一个单机流转换为表。当插入更多的流记录时,结果表将不断增长。
(2)连续查询
A. 例1
【动态表 动态表】
如图所示,统计用户在网站上的点击次数:Mary的点击事件之后查询不会终止,会等待Bob等后续的点击事件输入。同时不断更新,新增Bob用户、更新Mary的点击量,将原来的表合并为新的动态表。
连续查询特点:
- 查询从不终止
- 查询结果不断更新,产生一个新的动态表。
- 结果的动态表也可转换成输出的实时流
在任何时候,连续查询的结果在语义上与以批处理模式在输入表快照上执行的相同查询的结果相同。
注:该查询更新先前输出的结果,即定义结果表的 changelog 流包含 INSERT 和 UPDATE 操作。
B. 例2,查询产生仅追加数据的动态表
统计某个窗口时间(1 hour)内的用户点击次数:
在每个小时内计算用户的点击次数,在14:00时,虽然Bob有一次点击记录,但并不会更新之前13:00的Bob结果,而是新插入一条记录,因为处理的时间窗口不一样:分别为 12点到13点 和 13点到14点 的点击行为。
滑动窗口之间是相互不重叠的,所以永远不会更新之前的记录
注:该查询只附加到结果表,即结果表的 changelog 流只包含 INSERT 操作。
(3)动态表到实时流的转换
-
Append-only Stream: Append-only 流(只有 INSERT 消息)
-
Retract Stream: Retract 流(同时包含 INSERT 消息和 DELETE 消息)
在流式场景下,输入源源不断,就需要对之前的结果进行更新,因此 Flink 引入了一个特殊的消息:回撤消息(Retract 消息)。
-
Upsert Stream: Upsert 流(同时包含 UPSERT 消息和 DELETE 消息)
(4)状态
算子状态:在流式计算中,会存在有状态的计算逻辑(算子)。比如,需要计算某个用户在网上的点击量,该用户在网站当前的总点击次数就是算子状态,对于新的输入数据,先判断是否是该用户的点击行为,如果是,则将保留的点击次数(状态)增加一,并将当前累加结果输出。
- 查询结果动态变化 -> 动态表 -> 输出流(Retract 消息)
- 流不断输入,为了保证后续流输入正确,查询的时候往往会有状态
二、Exactly-Once 和 Checkpoint
1. 不同数据处理的一致性保证语义
- At-most-once:每条数据处理至多一次,处理延迟低;
- At-least-once:每条数据处理至少一次,一条数据可能存在重复消费;
- Exactly-once:最严格的处理语义,每条数据都被消费且仅被消费一次,仿佛故障从未发生。
2. Checkpoint
(1)状态快照与恢复
- 恢复:把一个状态放到到对应一个算子中去。
(2)快照制作时间点
- 状态恢复的时间点:需要等到所有处理逻辑消费完成,
source(读取数据流的算子) 保留状态及之前的数据。 - 简单的快照制作算法:
- 【暂停】暂停处理数据的输入
- 【等待】等待后续所有处理算子消费当前已经输入的数据
- 【备份】等待上一步处理完后,作业所有算子复制自己的状态并保存到远端可靠存储
- 【恢复】恢复对输入数据的处理
(3)Chandy-Lamport 算法
分布式的快照制作算法
- 对一个流的数据中奇数、偶数分别进行累加,并输出它们的结果
- 这里同时输入两个数据流,这里有两个 source 并行读取数据流。
a. 快照制作的开始 —— Checkpoint Barrier 下发
- 每个 source 算子都接收到 JM 发送的 Checkpoint Barrier,标识状态快照制作的开始
b. Source 算子状态制作和 barrier 传递
- Source 算子收到 Checkpoint Barrier 之后会暂停自己的处理逻辑,各个 source 保存自己的状态后,向所有连接的下游继续发送 Checkpoint Barrier,同时告知 JM 自己状态已经制作完成。
对于 source 算子,做状态复制的时候会暂停处理,一旦完成 Checkpoint Barrier 的下发,它仍然会恢复数据处理,不用等待下游所有算子状态是否制作完成。
c. 多个上游的等待 barrier 对齐现象 —— Barrier Alignment
- 算子会等待所有上游的 barrier 到达后才开始快照制作
- 已经制作完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程阻塞
Source1 先到达,快照制作等待 Source2 的 barrier。
d. 快照制作和数据处理的解耦
- Checkpoint 并不阻塞算子数据处理
e. Checkpoint ACK和制作完成
- 所有算子都告知 JM 状态制作完成后,整个 Checkp 就结束了
4. Checkpoint 对作业性能的影响
- 解耦了快照制作和数据处理过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作完成制作完成快照;
- 在快照制作和 Barrier Alignment 过程中需要暂停处理数据,仍然会增加数据处理延迟;
- 快照保存到远端也有可能极为耗时。(通常采用异步的方式保存)
三、Flink 端到端 Exactly-Once 实现
1. 端到端 Exactly-Once 语义
Flink 的 sink 是 Flink 三大逻辑结构之一(source,transform,sink),其功能是负责把 Flink 处理后的数据输出到外部系统中,Flink 的 sink 和 source 的代码结构类似。
- Checkpoint 能保证每条数据都对各个有状态的算子更新一次,sink 输出算子仍有可能下发重复的数据
- 严格意义的端到端的 Exactly-Once 语义需要特殊的 sink 算子实现
2. 两阶段提交协议(2PC)
在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或回滚某个事务性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑。
- Coordinator:协作者,同步和协调所有节点处理逻辑的中心节点【调度者】
- Participant:参与者,被中心节点调度的其他执行处理逻辑的业务节点【执行者】
(1)预提交阶段
- 协作者向所有参与者发送一个commit消息;
- 每个参与的协作者收到消息后,执行事务,但不真正提交;
- 若事务成功执行完成,发送一个成功的消息(vote yes);执行失败,则发送一个失败的消息(vote no)
(2)提交阶段
A. 若协作者成功接收到所有的参与者 vote yes 消息
- 协作者向所有参与者发送 commit 消息
- 每个收到 commit 消息的参与者释放执行事务所需的资源,并结束这次事务的执行
- 完成上一步后,参与者发送一个 ack 消息给协作者
- 协作者收到所有参与者的 ack 后,标识该事务执行完成
B. 若协作者收到参与者 vote no 消息(或发生等待超时)
- 协作者向所有参与者发送 rollback 消息
- 每个收到 rollback 消息的参与者回滚事务的执行操作,并释放事务所占资源
- 完成上一步后,参与者发送一个 ack 消息给协作者
- 协作者收到所有参与者的 ack 后,标识该事务成功完成回滚
3. Flink 中的 2PC Sink 应用
- Flink 中协作者和参与者的角色分配
- 协作者(JobManager)发起阶段一提交
- 各算子 Checkpoint 的制作
- 提交阶段及 Checkpoint 的制作完成
4. Flink 两阶段提交总结
- 事务开启:在 sink task 向下游写数据之前,都会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读;
- 预提交阶段:JobManager 开始下发 Checkpoint Barrier,当各个处理逻辑接收到 barrier 后停止处理后续数据,对当前状态制作快照,此时 sink 也不在当前事务下继续处理数据(处理后续的数据需要新打开下一个事务)。状态制作成功或失败,则向 JM 发送对应的成功或失败消息;
- 提交阶段:
- 若 JM 收到所有预提交成功的消息,则向所有处理逻辑(包括 sink)发送可以提交此次事务的消息,sink 接收到此消息后,则提交此次事务,此时下游可以读到这次事务写入的数据;
- 若存在 JM 收到预提交失败的消息,sink 接收到此消息后,则通知所有处理逻辑回滚这次事务的操作,此时 sink 则丢弃这次事务提交的数据。
四、Flink 案例
账单计算服务
从 Kafka 汇总读取账单信息,即所有的计费消息都会从 Kafka 下发,进行处理后写入到 MySQL 中。
当前方案
- 在上次记录的位点之后,从 Kafka 读取固定大小的数据;
- 对该批数据进行去重和聚合计算;
- 处理完成后写入 MySQL 中,若全部成功,则记录当前读取到的消息的最终位置;若处理或者写入失败,则不记录位点;
- 跳回第 1 步
存在的问题
- 非严格意义上的端到端的 Exactly-Once 语义:若该批数据处理完成后,在写入 MySQL 中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入;
- 去重能力有限:只能在当前处理的一批数据内去重,不知道之前该批数据是否被读取过,无法在批与批之间进行去重。
虽然没做到严格端到端的 Exactly-Once 语义,但是不会存在多扣费或少扣费。
Flink 解决方案
优势:
- 严格意义上的端到端的 Exactly-Once 语义:下游读取到的数据是不丢不重的;
- 增强的去重能力:可以在更长时间纬度对数据进行去重,并不是在所有的时间维度上对所有数据进行去重。(可以设置一个区间,保证状态在这个区间内都是存在的,过一段时间内可以把这个状态安全地删除)
五、总结
- 数据流与动态表可以互相转换
- 处理无限数据流的算子可以是有状态的
- Flink 通过 Checkpoint 机制实现故障前后的状态快照制作和恢复
- 支持两阶段提交协议的下游存储可以结合 Flink Checkpoint 机制实现严格意义上端到端的 Exactly-Once 语义实现