Flink实时去重——状态后端实现

670 阅读2分钟

flink常见的实时去重方案:

  • 基于状态后端
  • 基于HyperLogLog
  • 基于布隆过滤器(BloomFilter)
  • 基于BitMap
  • 基于外部数据库

基于状态后端的flink实时去重

maven环境,IDEA的情况下使用rocksdb需要添加依赖到pom文件

<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-statebackend-rocksdb</artifactId>
    <version>${flink.version}</version>
    <scope>provided</scope>
</dependency>

思路,数据去重的最常见的就是相同的key只处理一次,处理过的值加入到状态(MapState)中,每来一次数据都在MapState中判断一次是否存在,如果存在则忽略,否则处理完加入MapState中。由于实际环境数据是无界的,将海量的key-value存入内存是非常危险的,所以采用了rocksDB去序列化到磁盘。 下面测试环境,通过flink的数据生成器,生成0-9的随机数组成字符串作为source,生成的数据数量为20,通过KeyedProcessFunction方法处理数据,最终输出num:0-num:9的10个数据。

程序:

package source;

import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.state.MapState;
import org.apache.flink.api.common.state.MapStateDescriptor;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.connector.source.util.ratelimit.RateLimiterStrategy;
import org.apache.flink.api.java.functions.KeySelector;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.connector.datagen.source.DataGeneratorSource;
import org.apache.flink.connector.datagen.source.GeneratorFunction;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.contrib.streaming.state.EmbeddedRocksDBStateBackend;
//import org.apache.flink.runtime.state.hashmap.HashMapStateBackend;
import org.apache.flink.streaming.api.functions.KeyedProcessFunction;
import org.apache.flink.util.Collector;

import java.util.Random;

public class randomDataGen {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);  // 设置全局并行度为1。

        // 使用 rocksdb状态后端
        EmbeddedRocksDBStateBackend embeddedRocksDBStateBackend = new EmbeddedRocksDBStateBackend();
        env.setStateBackend(embeddedRocksDBStateBackend);

        // 重写数据生成器的方法,生成0-9以内的随机数用于测试
        // 输出为String类型:num:0,num:1,num:3,...num:9
        Random random = new Random();
        DataGeneratorSource<String> dataGeneratorSource = new DataGeneratorSource<>(
                new GeneratorFunction<Long, String>() {
                    @Override
                    public String map(Long aLong) throws Exception {
                        int i = random.nextInt(10);
                        return "num:" + i;
                    }
                },
                20,  // 生成数量20
                RateLimiterStrategy.perSecond(1),
                Types.STRING
        );

        DataStreamSource<String> stringDataStreamSource = env.fromSource(
                dataGeneratorSource,
                WatermarkStrategy.noWatermarks(),
                "data-generator"
        );
        KeyedStream<String, String> keyedStream = stringDataStreamSource.keyBy(
                new KeySelector<String, String>() {
                    @Override
                    public String getKey(String value) throws Exception {
                        String[] split = value.split(":");
                        return split[1];
                    }
                }
        );

        keyedStream.process(
                new KeyedProcessFunction<String, String, String>() {
                    MapState<String, String> valueMapState;

                    @Override
                    public void open(Configuration parameters) throws Exception {
                        super.open(parameters);
                        valueMapState = getRuntimeContext().getMapState(new MapStateDescriptor<String, String>("valueMS", Types.STRING, Types.STRING));
                    }
                    @Override
                    public void processElement(String s, KeyedProcessFunction<String, String, String>.Context context, Collector<String> collector) throws Exception {
                        String key = s.split(":")[1]; // 取出key用于判断以及插入状态后端
                        if (!valueMapState.contains(key)){
                            // 如果状态后端mapState不存在该值就添加进去并加入collect返回
                            valueMapState.put(key, s);
                            collector.collect(s);
                        }
                        // 如果已存在,则忽略该值
                    }

                }
        ).print();

        env.execute("testApplication");
    }
}

程序实际输出:

image.png

因为是随机生成的数据,可以发现本次执行是没有输出num:6的。

异常

如果是Windows环境下执行上述代码,可能会遇到flink rocksdb Can't find dependent libraries librocksdbjni-win64.dll,这里截取了部分错误信息。

该异常分析过程:www.cnblogs.com/wuxun1997/p…

以及github的issue:github.com/facebook/ro…

如果出现该问题你们可以从上述博客中寻找解决方案,我没有解决这个问题,切换到wsl中执行了。

博客

轻松通关Flink第20讲:Flink 高级应用之海量数据高效去重_flink数据高速处理-CSDN博客