流计算中的 Window 计算 | 青训营笔记

51 阅读6分钟

这是我参与「第四届青训营 」笔记创作活动的第4天

1. 概述

1.1. 流式计算 VS 批式计算

数据价值:实时性越高,数据价值越高

image.png

1.2. 批处理

批处理典型的数仓架构为 T+1 架构,即数据计算天级别的,当天只能看到前一天的计算结果。

通常使用的计算引擎为 Hive 或者 Spark 等。计算的时候,数据是完全ready的,输入和输出都是确定的。

image.png

小时级批计算

image.png

1.3. 处理时间窗口

实时计算:处理时间窗口

数据实时流动,实时计算,窗口结束直接发送结果,不需要周期调动任务

image.png

1.4. 处理时间 VS 事件时间

处理时间:数据在流式处理系统中真正处理时所在机器的当前时间;

事件时间:数据产生的时间,比如客户端、传感器、后端代码等上报数据的时间;

image.png

1.5. 事件时间窗口

实时计算:事件时间窗口

数据实时进入到真实事件发生的窗口中进行计算,可以有效地处理数据的延迟和乱序

image.png

1.6. Watermark

  • 在数据中插入一些watermark,来表示当前真实的时间

image.png

  • 在数据存在乱序的时候,watermark就比较重要了,它可以用来在乱序容忍和实时性之间做一个平衡

image.png

2. Watermark

2.1. 什么是Watermark

系统认为的当前真实的事件事件

2.2.如何产生Watermark

SQL

image.png

DataStream

image.png

2.3. 如何传递Watermark

image.png

上游传输过来的watermark的最小值为当前算子的watermark

2.4. 如何通过Flink UI 来观察 Watermark

image.png

image.png

2.5. 典型问题一

Per-partition VS Per-subtask watermark 生成

Per-subtask watermark 生成:

早期版本都是这种机制,典型的问题是一个source subtask消费多个partition,那么多个partition之间的数据读取可能会加剧乱序程度

Per-partition 生成:

新版本引入了基于每一个partition单独的watermark生成机制,这种机制可以有效的避免上面的问题

2.6. 典型问题二

部分partition/subtask断流

根据上面提到的watermark传递机制,下游subtask会将上游所有subtask的watermark值的最小值作为自身的watermark值,如果上游有一个subtask的watermark值不更新了,则下游的watermark值都不更新

解决方案:Idle source

当某个subtask断流的时间超过配置的idle超时时间,将当前的subtask设置为idle,并下发一个idle的状态给下游。下游在计算自身的watermark的时候,可以忽略掉当前是idle的那些subtask

2.7. 典型问题三

迟到数据处理

因为watermark表示当前事件发生的真实时间,那晚于watermark的数据到来时,系统会认为这种数据是迟到的数据

算子自身来决定如何处理吃掉的数据:

  • Window聚合,默认会丢弃迟到数据
  • 双流join,如果是outer join,则可以认为他不能join到任何数据
  • CEP,默认丢弃

3. Window

3.1. Window-基本功能

3.1.1. Window分类

典型的Window

  1. Tumble Window(滚动窗口)
  2. Sliding Window(滑动窗口)
  3. Session Window(会话窗口)

其他Window:

  1. 全局Window
  2. Count Window
  3. 累计窗口
  4. ...

3.1.2. Window使用

image.png

SQL API

image.png

DataStream API

image.png

3.1.3. 滚动窗口

窗口划分:

  1. 每个key单独触发
  2. 每条数据只会属于一个窗口

窗口触发:
Window结束时间到达的时候一次性触发

image.png

3.1.4. 滑动窗口

窗口划分:

  1. 每个key单独触发
  2. 每条数据可能会属于多个窗口

窗口触发:
Window结束时间到达的时候一次性触发

image.png

3.1.5. 会话窗口

窗口划分:

  1. 每个key单独触发
  2. 每条数据会单独划分为一个窗口,如果window之间有交集,则会对窗口进行merge

窗口触发:
Window结束时间到达的时候一次性触发

image.png

3.1.6. 迟到数据的处理

怎么定义迟到

一条数据到来后,会用WindowAssigner给他划分一个Window,一般时间窗口是一个时间区域,比如[10:00,11:00),如果划分出来的window end 比当前的watermark值还小,说明这个窗口已经触发了计算了,这条数据会被认为是迟到数据

什么情况下会产生迟到数据

只有事件时间下会产生迟到数据

迟到数据默认处理

丢弃

  1. Allow lateness

这种方式需要设置一个迟到的时间,设置之后,窗口正常计算结束后,不会马上清理状态,而是会多保留Allow lateness这么点时间,在这段时间内如果还有数据到来,则继续之前的状态进行计算

适用于:DataStream、SQL

  1. SideOutput(侧流输出)

这种方式需要给迟到数据打一个tag,然后在DataStream上根据这个tag获取迟到数据流,然后业务层面自行选择进行处理

适用于:DataStream

image.png

3.1.7. 增量 VS 全量计算

增量计算

  • 每条数据到来,直接进行计算,window只储存计算结果,比如计算sum,状态中只需储存sum的结果,不需要保存每条数据
  • 典型的reduce、aggregate等函数都是增量函数
  • SQL中的聚合只有增量计算

image.png

全量计算

  • 每条数据到来,都会存储到window的state中,等到window触发计算时,将所有数据拿出来一起计算
  • 典型的process函数是全量计算

image.png

3.1.8. EMIT触发

什么叫EMIT

通常来讲,window都是在结束的时候才能输出结果,比如1h的tumble window,只有在一小时结束的时候才能统一输出结果

如果窗口比较大,比如1h或者1天,甚至于更大的话,那计算结果输出的延迟就比较高,失去了实时计算的意义

EMIt的输出指的是,在window没有结束的时候,提前把window计算的结果输出出来

怎么实现

在DataStream中可以自定义Trigger来实现,Trigger的结果可以是:

  • CONTINUE
  • FIRE(触发计算,但是不清理)
  • PURGE
  • FIRE_ADN_PURGE

SQL也可以使用,通过配置:

  • table.exec.emit.early-fire.nabled=true
  • table.exec.emit.early-fire.delay={time}

3.2 Window高级优化

3.2.1. Mini-Batch 优化

image.png

image.png

3.2.2. 倾斜优化-local-global

image.png

3.2.3. Distinc 计算状态复用

image.png

image.png

3.2.4. Pane优化

image.png

image.png

4. 案例分析

4.1. 利用Flink SQL 计算抖音的日活曲线

问题:所有数据都需要在一个subtask中计算完成,无法并行

image.png

通过两阶段聚合来把数据打散,完成第一轮聚合,第二轮聚合只需要对各个分桶的结果进行就和即可

image.png

4.2. 利用Flink SQL计算大数据任务的资源使用

问题描述:

大数据任务(特指离线任务),运行时通常会有多个container启动并运行,每个container在运行结束的时候,YARN会负责将他的资源使用(CPU、内存)情况上报,一般大数据任务运行时间从几分钟到几小时不等

需求:

根据YARN上报的各个container的信息,在任务结束的时候,尽快的计算出一个任务运行所消耗的总的资源。

假设前两个container结束时间差不超过10min

典型的可以通过会话窗口来将数据划分到一个窗口中,然后再将结果求和即可

image.png