Exactly Once 语义在Flink中的实现 | 青训营笔记

104 阅读8分钟

Exactly Once 语义在Flink中的实现

这是我参与「第四届青训营 」笔记创作活动的第3天


今天学习了课程《Exactly Once 语义在 Flink 中的实现》,学习的内容主要分为以下几个部分:

  • 数据流和动态表
  • Exactly Once 和 Checkpoint
  • 端到端 Exactly-Once 实现
  • Flink 案例讲解

一、数据流和动态表

1.1 传统SQL和流处理

特征SQL流处理
处理数据的有界性处理的表是有边界的流是一个无限元组序列
处理数据的完整性执行查询可以访问完整的数据执行查询无法访问所有的数据
执行时间批处理查询产生固定大小结果后终止查询不断更新结果,永不终止

1.2 数据流和动态表转换

什么是静态表?什么是动态表?

  • 静态表:批处理的数据就是静态数据,它是有界数据。而静态表就是表的记录数是固定的,它不会随着时间变化而变化。
  • 动态表:与表示批处理的静态表不同,动态表是随时间变化的。可以像查询静态批处理表一样查询它们。数据表是insert、update和delete DML语句 的 stream 的结果,通常称为 changelog stream。

数据流转换成动态表的流程:数据流中的数据源源不断地产生,当一条数据来临时,一个表插入一条记录,当插入更多流记录时,结果表将不断增长,这就形成了动态表。

动态表也可以转换成动态表:通过连续查询可以实现动态表与动态表之间的转换。

连续查询:查询从不终止,查询结果会不断更新,产生一个新的动态表。在任何时候,连续查询的结果在语义上与批处理模式在输入表快照上执行的相同查询的结果相同。

image-20220727230909094.png

1.3 不同数据处理保证的语义

  • At-most-once:出现故障的时候,什么都不做。数据处理不保证任何语义,处理时延低。
  • At-least-once:保证每条数据均至少被处理一次,一条数据可能存在重复消费。
  • Exactly-once:最严格的处理语义,从输出结果来看,每条数据均被消费且仅消费一次,仿佛故障从未发生。

二、Exactly Once 和 Checkpoint

一些基本概念:

  • Checkpoint:Flink 实现各个计算逻辑状态快照算法,也可指一次状态快照。
  • Checkpoint barrier: 用于标识状态快照的制作,也将数据划分成不同的消费区间
  • Checkpoint Alignment: 等待多个上游的Checkpoint barrier到达的现象
  • JobManager: 负责协调和管理 Checkpoint

2.1 制作快照的时间点

状态恢复的时间点:需要等待所有处理逻辑消费完成source保留状态及之前的数据。

一个简单的快照制作算法

  1. 暂停处理输入的数据;
  2. 等待后续所有处理算子消费当前已经输入的数据;
  3. 待 2 处理完后,作业所有算子复制自己的状态并保存到远端可靠存储;
  4. 恢复对输入数据的处理

2.2 Chandy-Lamport算法

  • 快照制作的开始

    每一个source算子都接收到JobManager发送的 Check Barrier 标识状态快照制作的开始。

  • source 算子的处理

    各个source 保存自己状态后,向所有连接的下游继续发送 Checkpoint Barrier ,同时告知JobManager 自己状态已经制作完成。

  • Barrier Alignment

    算子会等待所有上游的barrier到达后才开始快照的制作;已经完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程阻塞。

  • 快照制作和处理数据的解耦

  • checkpoint的结束

    所有算子都告知JobManager状态制作完成后,整个Checkpoint就结束了。

2.3 Checkpoint 对作业性能的影响

  1. 解耦了快照制作和数据处理过程,各算子制作完成状态快照后就可以正常处理数据,不同等下游算子制作完成快照;
  2. 在快照制作和 Barrier Alignment 过程中需要暂停处理数据,仍然会增加数据处理的延迟;
  3. 快照保存到远端也有可能极为耗时。

三、端到端 Exactly-Once 实现

3.1 端到端 Exactly-once 语义

  1. Checkpoint能保证每条数据都对各个有状态的算子更新一次,sink输出算子仍然可能下发重复数据;
  2. 严格意义的端到端的 Exactly-once 语义需要特殊的 sink 算子实现。

3.2 两阶段提交协议

在多节点参与执行的分布式系统中,为了协调每个节点都能同时执行或回滚某个事务性的操作,引入了一个中心点来统一处理所有节点的执行逻辑,这个中心节点叫协作者(coordinator) ,被中心节点调度的其他业务节点叫做参与者(participant)

image-20220727234603870.png

3.2.1 两阶段提交协议(一)- 预提交阶段

若协作者成功接收到所有的参与者 vote yes 的消息

  1. 协作者向所有参与者发送一个commit 消息;
  2. 每个收到commit消息的参与者释放执行事务所需的资源,并结束这次事务的执行;
  3. 完成步骤2后,参与者发送一个ack 消息给协作者;
  4. 协作者收到所有参与者的ack消息后,标识该事务执行完成。

3.2.2 两阶段提交协议(二)- 提交阶段

若协作者有收到参与者 vote no 的消息(或者发生等待超时)

  1. 协作者向所有参与者发送一个 rollback 消息;
  2. 每个收到rollback 消息的参与者回滚事务的执行操作,并释放事务所占资源;
  3. 完成步骤2之后,参与者发送一个ack消息给协作者;
  4. 协作者收到所有参与者的 ack 消息后,标识该事务成功完成回滚。

3.3 Flink两阶段提交总结

  1. 事务开启

    在 sink task 向下游写数据之前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读;

  2. 预提交阶段

    JobManager开始下发Checkpoint Barrier ,当各个处理逻辑接收到barrier 后停止处理数据,对当前状态制作快照,此时,sink也不在当前事务下继续处理数据(处理后续数据需要新打开下一个事务)。状态制作成功则向JobManager成功的消息,失败则发送失败的消息;

  3. 提交阶段

    若JobManager收到所有预提交成功的消息,则向所有处理逻辑(包括sink)发送可以提交此次事务的消息,sink接收到此消息后,则完成此次事务的提交,此时下游可以读到这次事务写入的数据;若JobManager有收到提交失败的消息,则通知所有处理逻辑回滚这次事务的操作,此时,sink则丢弃这次事务提交的数据。

四、Flink实例案例 - 账单计算服务

方案1:从Kafka中读取账单消息,进行处理后写入到MySQL中

执行步骤:

  1. 在上次记录的位点之后,从Kafka中读取固定大小的数据;
  2. 对该批数据进行去重和聚合计算;
  3. 处理完成后写入MySQL中,若全部写入成功,则记录下当前读取到的消息的终止位置;若处理或写入失败,则不记录位点;
  4. 跳回步骤1

该方案存在的问题:

  1. 非严格意义上的端到端的Exactly Once语义:若该批数据处理完成后,在写入mysql中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入;
  2. 去重能力有限:只能在当前处理的一批数据内进行去重,无法在批与批之间进行去重。

方案2:Flink解决方案,从Kafka中读取账单消息,Flink进行处理后写入到MySQL中

优势:

  1. 严格意义上的端到端的Exactly-Once语义,下游读到的数据时不丢不重的;
  2. 增强的去重能力:可以在更长的时间维度对数据进行去重。

五、个人总结和思考

Exactly-Once语义在Flink上实现,使得Flink在流处理领域确保了数据的准确性,不丢不重,突显Flink在流数据处理的领域的优势所在。通过本次课程我理解了Exactly-Once语义在Flink上实现的原理,希望后面可以结合Flink源码来分析其中的原理与实现。既然Flink可以实现Exactly-Once,那么Spark未来会不会实现Exactly-Once来确保数据的准确性呢?