Exactly Once 语义在 Flink 中的实现 | 青训营笔记

46 阅读7分钟

这是我参与「第四届青训营 」笔记创作活动的第3天

1. 数据流和动态表

1.1. 随处可见的数据流

image.png

1.2. 传统SQL和流处理

image.png

1.3. 概述-数据流和动态表的转换

image.png

1.3. 在流上定义表

下图显示了单击事件流如何转换为表,当插入更多的单击事件流时,结果表将不断增长

image.png

动态表:与表示批处理的静态表不同,动态表是随时间变化的。可以像查询静态批处理表一样查询他们。数据库是INSERT、UPDATE和DELETE DML语句的stream结果,通常称为changelog stream

1.4. 连续查询

  • 查询从不终止
  • 查询结果会不断更新,产生一个新的动态表

image.png

在任何时候,连续查询的结果在语义上与批处理模式在输入表快照上执行的相同查询的结果相同。

1.5. 查询产生仅追加数据的动态表

image.png

1.6. 两个连续查询的比较

虽然这两个示例查询看起来非常相似(都计算分组计数聚合),但他们在一个重要方面不同:

  1. 第一个查询更新先前输出的结果,即定义结果表的changelog流包含INSERT和UPDATE操作
  2. 第二个查询只附加到结果表,即结果表的changelog流只包含INSERT操作

image.png

1.7. Retract消息的产生

image.png

1.8. 状态

需要存储每个用户的URL计数,以便能够增加该计数并在输入表接收新行时发送新结果

image.png

1.9. 数据流和动态表转换回顾

image.png

  1. 数据流和动态表的转换;
  2. 数据流的查询不会终止;
  3. 查询可能会有状态,用来不断更新查询的结果;

1.10. 不同数据处理保证的语义

  1. At-most-once: 出现故障时,啥也不做,数据处理不保证任何语义,处理时延迟低
  2. At-least-once: 保证每条数据均至少被处理一次,同一条数据可能存在重复消费
  3. Exactly-once: 最严格的处理语义,从输出结果来看,每条数据均被消费且只消费一次,仿佛故障从未发生

2. Exactly-Once和Checkpoint

2.1. 状态快照与恢复

image.png

image.png

2.2. 制作快照的时间点

状态恢复的时间点: 需要等待所有处理逻辑消费完成source保留状态之前的数据

一个简单的快照制作方法

  1. 暂停处理输入的数据;
  2. 等待后续所有算子消费当前已输入的数据;
  3. 待2处理完后,作业所有算子恢复复制自己的状态,并保存到远端可靠存储;
  4. 恢复对输入数据的处理;

image.png

2.3. Candy-Lamport 算法

image.png

2.3.1. 快照制作的开始

每一个source算子,都接收到JM发送的Checkpoint Barrier标识快照制作的开始

image.png

2.3.2. source算子的处理

各个source保存自己的状态后,向所有连接的下游继续发送Checkpoint Barrier,同时告知JM自己状态已制作完成

image.png

2.3.3. Barrier Alignment

  • 算子会等待所有的上游Checkpoint Barrier到达后,才开始快照的制作
  • 已经制作完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程所阻塞

image.png

2.3.4. 快照制作和处理数据的解耦

image.png

2.3.5. checkpoint的结束

所有算子告知JM状态制作完成后,整个Checkpoint就结束了

image.png

2.4. Checkpoint对作业性能的影响

  1. 解耦了快照制作和处理数据过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作完成快照;
  2. 在快照制作和Barrier Alignment过程中需要暂停处理数据,仍然会增加数据处理延迟;
  3. 快照保存到远端也可能极为耗时;

3. 端到端的Exactly-Once实现

3.1. 端到端的Exactly-Once语义

  1. Checkpoint能保证每条数据都对各个有状态的算子更新一次,sink输出算子仍可能出现下发重复的数据;
  2. 严格意义的端到端的Exactly-Once语义需要特殊sink算子实现

image.png

3.2. 两阶段提交协议

在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事物性的操作,引入了一个中心节点来统一处理所有子节点的执行逻辑,这个中心节点叫做协作者(coordinator),被中心节点调度的其他业务节点叫做参与者(participant)

image.png

3.2.1. 两阶段提交协议(一)- 预提交阶段

  1. 协作者向所有参与者发送一个commit消息;
  2. 每个参与的参与者收到消息后,执行事务,但是不真正提交;
  3. 若事务成功执行完成,发送一个成功的消息(vote yes);执行失败,则发送一个失败的消息(vote no);

image.png

3.2.2. 两阶段提交协议(二)- 提交阶段

若协作者成功收到所有参与者vote yes的消息:

  1. 协作者向所有参与者发送一个commit消息;
  2. 每个收到commit消息的参与者释放执行事务所需要的资源,并结束这次事务的执行;
  3. 完成步骤2后,参与者发送一个ack消息给协作者;
  4. 协作者收到所有参与者发送的ack消息后,标识该事务执行完成;

image.png

3.2.3. 两阶段提交协议(三)- 提交阶段

若协作者有收到参与者vote no的消息(或等待超时时):

  1. 协作者向所有参与者发送一个rollback消息;
  2. 每个收到rollback消息的参与者回滚事务的执行操作,并释放事务所占有的资源;
  3. 完成步骤2后,所有参与者发送一个ack消息给协作者;
  4. 协作者接收到所有参与者ack的消息后,标识该事务完成回滚;

image.png

3.3. Flink 中 2PC Sink

由JM担任协作者角色,TM担任参与者角色

image.png

image.png

image.png

image.png

image.png

3.4. 两阶段提交总结

  1. 事务开启: 在sink task 在向下游写数据前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读;
  2. 预提交阶段: JobManager开始下发Checkpoint Barrier,当各个处理逻辑接收到barrier后停止后续操作,对当前状态制作快照,此时sink也不在当前事务下继续处理数据(处理后续的数据需要打开一个新的事务)。状态制作成功则向JM发送成功的消息,否则发送失败的消息。
  3. 提交阶段: 若JM收到所有预提交成功的消息,则向所有处理逻辑(包括sink)发送可以提交此次事务的消息,sink接收到此消息后,则完成此次事务的提交,此时下游可以读到这次事务写入的数据;若JM有接收到预提交失败的消息,则通知所有处理逻辑回滚这次事务的操作,此时sink则丢弃这次提交的数据。

image.png

4. 案例讲解

4.1. 账单计算服务:场景介绍

从Kafka中读取账单消息,进行处理后写入MySQL

image.png

执行步骤:

  1. 在上次记录的位点之后,从Kafka中读取固定大小的数据;
  2. 对此数据进行去重和聚合计算;
  3. 处理完成后写入MySQL中,若全部写入成功,贼记录下当前读取到的消息的终止位置;若处理或者写入失败,则不记录位点;
  4. 跳回步骤1;

存在的问题:

  1. 非严格意义上的端到端的Exactly-Once语义:若该批数据在处理完成以后,在写入MySQL中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍会重复写入;
  2. 去重能力有限:只能在当前处理的一批数据内进行去重,无法在批与批之间进行去重;

4.1. 账单计算服务:解决方案

从Kafka中读取账单消息,进行处理后写入MySQL

image.png

优势:

  1. 严格意义上的端到端的Exactly-Once语义: 下游收到的数据是不丢不重的;
  2. 增强的去重能力: 可以在更长的时间维度对数据进行去重;