flink-sql中hive-join碰到的问题

230 阅读2分钟

本文已参与「新人创作礼」活动,一起开启掘金创作之路。


title: flink-sql中hive-join碰到的问题 date: 2021-12-22 23:41:20 tags: [flink,sql,hive,join] categories: flink

今天说一下最近碰到的一个flink sql temporal join hive表的问题,看看大家有没有碰到过,如果还在困惑中,或许你可以在本文中找到答案。

twopeople

基本环境

我用的是flink version 1.12.3,hive是1.2.0,hbase是1.0。 好了基本环境介绍完了,流程是这样的:

mysql join hive, insert into hbase

我们用到了2个connector,1个是mysql-cdc connector,另一个是hbase connector。

hive作为一个维表,去关联得到相应的结果。

mysql 200条数据,hive 900万数据(大概5G大小),根据mysql的主键作为hbase的rowkey,写入hbase。

启动

启动flink sql任务,我们设置jm 1core 2048m内存,tm 3core 16932m内存足以加载整个hive表了。 启动后报错,报错位置在读完mysql的2000条数据之后,然后加载hive表数据时,读了1分半,出现了zookeeper session timed out,于是task failover了,造成TaskManager不停重启,任务失败。

我们刚开始在分析的时候,也是怀疑hbase连接zookeeper session的timeout设置时间是不是太短了,造成超时。 准备调整zookeeper.session.timeout时间到更大的数值(现在hbase-site.xml中设置的值是90s),后来发现日志中有一句:

lookup join cache

找到对应的flink源码,发现是加载hive的数据到flink,好了,知道原因了,加载hive过程中,zookeeper的session超时了,导致task failover。

那么就要想办法延长timeout时间,或者减少hive维表数据量了。

ok,今天就到这里,分享给大家困扰我好几天的问题。

每天进步一点点。


Keep reading, Keep writing, Keep coding.

一起学习,一起进步。