Exactly Once 语义在Flink中的实现 | 青训营笔记

60 阅读8分钟

这是我参与「第四届青训营 」笔记创作活动的第5天!

一、数据流和动态表。

1.随处可见的流式数据:

1963a0579b64874215e996cea821a1e.jpg

2.传统的SQL和流处理:

12bc216be54cd9c28ca0e4627feaaa8.jpg

3.概述——数据流和动态表转换:

d4560ce6245079899a2e0914c5ea340.jpg 在流上定义表: 下图显示了单击事件流如何转化为表。当插入更多的单击流记录时,结果表将不断增长。

a8333db7577010b537514aef6656720.jpg

  • 动态表:与表示批处理数据的静态表不同,动态表是随时间变化的。可以像查询静态批处理表一样查询它们。
  • 数据库表是INSERT、UPDATE和DELETEDML语句的stream的结果,通常称为changelog stream。(Changelog: 包含 INSERT/UPDATE/DELETE 等的数据流)
4.连续查询:
  • 连续查询特点:
    • (流式)查询从不终止
    • 查询结果会不断更新,产生一个新的动态表

在任何时候,连续查询的结果在语义上与以批处理模式在输入表快照上执行的相同查询的结果相同。

870789724f6ea76e7d3340505063517.jpg

5.查询产生仅追加数据的动态表:

查询只附加到结果表,即结果表的changelog 流只包含INSERT操作

6.两个连续查询对比:

虽然这两个示例查询看起来非常相似(都计算分组计数聚合),但它们在一个重要方面不同:

  • 第一个查询更新先前输出的结果,即定义结果表的changelog 流包含INSERT和UPDATE操作;
  • 第二个查询只附加到结果表,即结果表的changelog 流只包含INSERT操作。
7.Retract消息的产生:
8.状态:

需要存储每个用户的 URL 计数,以便能够增加该计数并在输入表接收新行时发送新结果。

image.png

9.数据流和状态表转换回顾:

image.png

  • 数据流和动态表之间的转换
  • 在数据流的查询不会终止
  • 查询可能会有的状态,用来不断更新查询的结果
10.不同数据处理保证的语义:
  • At-most-once:出现故障的时候,啥也不做。数据处理不保证任何语义,处理时延低;
  • At-least-once:保证每条数据均至少被处理一次,一条数据可能存在重复消费。
  • Exactly-once:最严格的处理语义,从输出结果来看,每条数据均被消费且仅消费一次,仿佛故障从未发生。

二、Exactly-Once 和 Checkpoint。

1.制作快照的时间点:
  • 状态恢复的时间点:
    • 需要等待所有处理逻辑消费完成source保留状态及之前的数据。
  • 一个简单的快照制作算法:
    • 暂停处理输入的数据;
    • 等待后续所有处理算子消费当前已经输入的数据;
    • 待2处理完后,作业所有算子复制自己的状态并保存到远端可靠存储;
    • 恢复对输入数据的处理

08edbb4f699748722df31a4e5ba4399.jpg

2.Chandy-Lamport 算法

1b21014dd58b1af4c5c4a68efcdb6cb.jpg

3.1快照制作的开始:

每一个 source 算子都接收到 JM 发送的 Checkpoint Barrier 标识状态快照制作的开始。 3.2Source算子的处理:

各个 source 保存自己状态后,向所有连接的下游继续发送 Checkpoint Barier,同时告知 JM 自己状态已经制作完成。

3.3Barrier Alignment

  • 算子会等待所有上游的barrier到达后才开始快照的制作;
  • 已经制作完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程阻塞。

3.4快照制作和处理数据的解耦

3.5checkpoint 的结束

所有算子都告知 JM 状态制作完成后,整个 Checkpoint 就结束了。

4.Checkpoint对作业性能的影响:
  • 解耦了快照制作和数据处理过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作制作完成快照;
  • 在快照制作和Barrier Alignment 过程中需要处现数据,仍然会增加数据处理延迟;
  • 快照保存到远端也有可能极为耗时。

三、Flink端到端的Exactly-once语义。

1.端到端Exactly-once语义:
  • Checkpoint 能保证每条数据都对各个有状态的算子更新一次,sink输出算子仍然可能下发重复的数据;
  • 严格意义的端到端的Exactly-once语义需要特殊的sink 算子实现。
2.两阶段提交协议:

在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事务性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑,这个中心节点叫做协作者(coordinator),被中心节点调度的其他业务节点叫做参与者(participant)。

3a922e7f4e9fb3972c9ffdfa8e5b5d8.jpg 2.1预提交阶段:

  • 协作者向所有参与者发送一个commit(提交)消息;
  • 每个参与的协作者收到消息后,执行事务,但是不真正提交;
  • 若事务成功执行完成,发送一个成功的消息(vote yes);执行失败,则发送一个失败的消息(vote no)

2.2提交阶段:

  • 若协作者成功接收到所有的参与者vote yes的消息:
    • 协作者向所有参与者发送一个 commit消息;
    • 每个收到commit消息的参与者释放执行事务所需的资源,并结束这次事务的执行;
    • 完成步骤2后,参与者发送一个ack(确认字符,表示接收到的字符无错误)消息给协作者;
    • 协作者收到所有参与者的ack消息后,标识该事务执行完成。
  • 若协作者有收到参与者vote no的消息(或者发生等待超时):
    • 协作者向所有参与者发送一个rollback(回滚) 消息;
    • 每个收到 rollback消息的参与者回滚事务的执行操作,并释放事务所占资源;
    • 完成步骤2后,参与者发送一个ack 消息给协作者;
    • 协作者收到所有参与者的ack消息后,标识该事务成功完成回滚。
3.Flink中的 2PC Sink(两阶段提交协议在Sink实现):

协作者 与 参与者: 068705c23ec5633d5ca4d46cacd67f6.jpg 预提交阶段:

7f6d115743edc225c764820ce14b25b.jpg 提交阶段:

75e65be8bb4e6480095858b31e82521.jpg

44be67daec5818accc36c09c571fee3.jpg 正式提交:

10adebb2b4c142137d13335d4cd0506.jpg

4.Flink两阶段提交总结:
  • 事务开启:在sink task向下游写数据之前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读;
  • 预提交阶段:JobManager开始下发Checkpoint Barrier,当各个处理逻辑接收到barier后停止处理后续数据,对当前状态制作快照,此时sink 也不在当前事务下继续处理数据(处理后续的数据需要新打开下一个事务)。状态制作成功则向JM成功的消息,失败则发送失败的消息;
  • 提交阶段:若JM收到所有预提交成功的消息,则向所有处理逻辑(包括sink)发送可以提交此次事务的消息,sink.接收到此消息后,则完成此次事务的提交,此时下游可以读到这次事务写入的数据;若JM有收到预提交失败的消息,则通知所有处理逻辑回滚这次事务的操作,此时 sink则丢弃这次事务提交的数据下。

四、Flink案例讲解。

1.账单计算服务:场景简介

从Kafaka中读取账单消息,进行处理后写入MySQL中:

63683ac8167c88628b691e20d76ed49.jpg 当前方案:

执行步骤:

  • 1.在上次记录的位点之后,从Kafka中读取固定大小的数据;(批处理)
  • 2.对该批数据进行去重(select distinct)和聚合(count等)计算;
  • 3.处理完成后写入 Mysql 中,若全部写入成功,则记录下当前读取到的消息的终止位置;若处理或者写入失败,则不记录位点;
  • 4.跳回步骤1

存在的问题:

  • 1.非严格意义上的端到端的Exactly-Once语义:若该批数据处理完成后,在写入MySQL中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入;
  • 2.去重能力有限:只能在当前处理的一批数据内进行去重,无法在批与批之间进行去重;

优势:

  • 1.严格意义上的端到端的Exactly-Once语义:下游读到的数据是不丢不重的;
  • 2.增强的去重能力:可以在更长的时间维度对数据进行去重。

image.png

总结

经过这节课的学习,我对Exactly-Once有了更加深刻的了解,为了保证每个消息在系统或网络故障的情况下,被处理一次且仅处理一次。这首先需要流式处理框架需要提供这种功能的支持,然后在消息传递、数据输出存储(比如到MySQL落库)以及具体的代码编写等等各个方面整体考虑和配合,才最终能够保证消息的ECO。包括它的运行方式和各个阶段。