Flink 是一个领先的流计算框架,国内有诸多大厂正在使用 Flink 搭建数据分析系统、实时处理系统等等。阿里巴巴在19年贡献了其 Blink 引擎,目前可以通过 SQL 定义流计算任务。社区也计划在 1.10 版本加大对 SQL DDL 语句的支持,Flink 正在逐步成为一个批流一体的数据处理引擎。
我今天以 Linux 为例讲述一下怎么样建一个单机的 Flink。
开始试验之前,需要有一台 Liun 操作系统的计算机。如果没有,以去买个公有云的按量付费的主机来做实验哦 ~ ~
首先,需要安装 Java 。 本文以 OpenJDK 为例,安装完成后执行 java -version
,应该显示如下信息:
$ java -version
openjdk version "1.8.0_232"
OpenJDK Runtime Environment (build 1.8.0_232-b09)
OpenJDK 64-Bit Server VM (build 25.232-b09, mixed mode)
随后,下载安装包,国内服务器建议使用清华大学的镜像哦:
$ wget http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.9.1/flink-1.9.1-bin-scala_2.11.tgz
解压,并把项目放到 usr 目录:
$ tar xzf flink-*.tgz
$ mv flink-1.9.1 /usr/local/flink
尝试执行以下语句,看看是否能执行成功:
$ /usr/local/flink/bin/start-cluster.sh
笔者为了方便,把bin放到path里面了, 这样的话直接登录到服务器后执行 start-cluster.sh
和 stop-cluster.sh
就能启动和停止 Flink 服务。(当然,大家还是需要根据实际情况决定是否这么配置,以免引起冲突...):
$ export PATH=$PATH:"/usr/local/flink/bin"
预期将会输出以下的信息:
Starting cluster.
Starting standalonesession daemon on host xxxx.
Starting taskexecutor daemon on host xxxx.
如果成功输出,登录以下链接: http://<你的玩服务器ip>:8081
你应该会看到如下的一个界面,这说明你的 Flink 单机环境安装成功了

未完待续~