Exactly Once 语义在 Flink 中的实现|青训营笔记

103 阅读7分钟

数据流和动态表

  1. 随处可见的流式数据:数据在任意时刻都会被需要
  2. 传统 SQL 和流处理
特征SQL流处理
处理数据的有界性处理的表是有界的流是一个无限元祖序列
处理数据的完整性执行查询可以访问完整的数据执行查询无法访问所有的数据
执行时间批处理查询产生固定大小结果后终止查询不断更新,永不终止
  1. 数据流和动态表转换

stream

  • 在流上定义表

事件流可以转换为表,表会不断增长。

动态表:与表示批处理数据的静态表不同,动态表是随时间变化的。可以像查询静态批处理表一样查询它们。

  • 连续查询

连续查询:查询从不停止、查询结果会不断更新,产生一个新的动态表。

在任何时候,连续查询的结果在语义上与批处理模式在输入表快照上执行的相同查询的结果相同。

  • 查询产生仅追加数据的动态表
  • 两个连续查询对比
    • 第一种是 INSERT 和 UPDATE ,覆盖数据
    • 第二种是 INSERT,追加数据
  • Retract 消息
    • INSERT 和 DELETE
  • 状态
    • 保存之前查询的状态,这样才能在新增数据时更好的处理。
  1. 不同数据处理保证语义(出现故障的情况)
    1. At-most-once:出现故障的时候,啥也不干。数据处理不保证任何语义,处理时延低。
    2. At-least-once:保证每条数据均被处理一次,一条数据可能存在重复消费。
    3. Exactly-once:最严格的处理语义,有且只有一次。

Exactly-Once 和 Checkpoint

制作快照的时间点

简单的快照制作算法:

  1. 暂停处理输入的数据
  2. 等待后续所有处理算子消费当前已经输入的数据
  3. 待 2 处理完毕,作业所有算子复制自己的状态并保存到远端可靠存储
  4. 恢复对输入数据的处理

状态恢复的时间点:

需要等待所有处理逻辑消费完成 source 保留状态以及之前的数据。

Chandy-Lamport 算法

  1. 每一个 source 算子都接收到 JM 发送的 Checkpoint Barrier 标识状态快照制作的开始。
  2. 每个 source 保存自己的状态后,向所有的下游继续发送 Checkpoint Barrier,同时告知 JM 自己状态已经制作完成。
  3. Barrier Alignment
    1. 算子会等待所有上游的 barrier 到达后才开始快照的制作。
    2. 已经制作完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程阻塞。
  4. 快照制作和处理数据的解耦
  5. checkpoint 的结束:所有算子都告诉 JM 状态制作完成后,整个 Checkpoint 就结束了。

Checkpoint 对作业性能的影响

  1. 解耦了快照制作和数据处理过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作完成快照。
  2. 在快照制作和 Barrier Alignment 过程中需要暂停处理数据,仍然会增加数据处理延迟
  3. 快照保存到远端也有可能极为耗时。

Flink 端到端的 Exactly-once 语义

端到端 Exactly-once 语义

  1. Checkpoint 能保证每条数据都对各个有状态的算子更新一次,sink 输出算子仍然可能下发重复的数据;
  2. 严格意义的端到端的 Exactly-once 语义需要特殊的 sink 算子实现。

两阶段提交协议

在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事务性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑,这个中心节点叫做协作者,被中心节点调度的其他业务节点叫做参与者

两阶段提交协议-预提交阶段

若协作者成功接收到所有的参与者 vote yes 的消息:

  1. 协作者向所有参与者发送一个 commit 消息;
  2. 每个收到 commit 消息的参与者释放执行事务所需的资源,并结束这次事务的执行;
  3. 完成步骤 2 后,参与者发送一个 ack 消息给协作者;
  4. 协作者收到所有参与者的 ack 消息后,标识该事务执行完成。

两阶段提交协议-提交阶段

若协作者收到参与者 vote no 的消息(或者发生等待超时):

  1. 协作者向所有参与者发送一个 rollback 消息
  2. 每个收到 rollback 消息的参与者回滚事务的执行操作,并释放事务所占的资源
  3. 完成步骤 2 后,参与者发送一个 ack 消息给协作者
  4. 协作者收到所有参与者的 ack 消息后,标识该事务完成回滚

Flink 中 2PC Sink

img

Flink 两阶段提交总结

  1. 事务开启:在 sink task 向下游写数据之前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读。
  2. 预提交阶段:JM 开始下发 Checkpiont Barrier,当各个处理逻辑接收到 barrier 后停止处理后续数据,对当前状态制作快照,此时 sink 也不在当前事务下继续处理数据(处理后续的数据需要新打开下一个事务)。状态制作成功则向 JM 发送成功的信息。
  3. 提交阶段: 若 JM 收到所有预提交成功的消息,则向所有处理逻辑(包括 sink)发送可以提交此次事务的消息,sink 接收到此消息后,则完成此次事务的提交,此时下游可以读到这次事务写入的数据;若 JM 有收到预提交失败的消息,则通知所有处理逻辑回滚这次事务的操作,此时 sink 则丢弃这次事务提交的数据下。

Flink 案例讲解

账单计算服务

从 Kafka 中读取账单消息,进行处理后写入到 MySQL 中。

当前方案:

  • 执行步骤:
  1. 在上次记录的位点之后,从 Kafka 中读取固定大小的数据。
  2. 对该批数据进行去重和聚合计算
  3. 处理完成后写入 Mysql 中,若全部写入成功,则记录下当前读取到的消息的终止位置;若处理或写入失败,则不记录位点
  4. 跳回步骤1
  • 存在的问题:
  1. 去重能力有限:只能在当前处理的一批数据内进行去重,无法在批和批之间去重。
  2. 非严格意义上的端到端的 Exactly-Once 语义:若该批数据处理完成后,在写入 MySQL 中发生异常,则存在部分数据写入的情况下,下次作业启动后,这部分数据会重复写入。

Flink 解决方案的优势:

  1. 严格意义上的端到端的 Exactly-Once 语义,下游读到的数据是不丢不重的。
  2. 增强的去重能力:可以在更长的时间维度对数据进行去重。

总结

  • 数据流和动态表可以相互转换
  • 处理无限数据流的算子可以是有状态的
  • Flink 通过 Checkpoint 机制实现故障前后的状态快照制作和恢复
  • 支持两阶段提交协议的下游存储可以结合 Flink Checkpoint 机制实现严格意义上端到端的 Exactly-Once 语义实现。