【误闯大数据】【从安装到入门】Flink-单机玩耍篇

1,281 阅读2分钟
作者 日期 版本号
元公子 2019-12-07 v1.0.0

你知道的越少,你不知道的就越少

没有朋友的点赞,就没法升级打怪

一、下载安装包

官方地址:flink.apache.org/downloads.h…

下载最新版软件:Apache Flink 1.9.1 for Scala 2.12

二、系统环境检查/准备

  • Java jdk1.8以上环境
  • 示例使用Centos7操作系统

三、安装软件

1.创建专属用户(可省略此步,直接使用root用户或者您愿意)

创建名称为hadoop的用户组

[root@hadoop-master ~]# groupadd hadoop

创建名称为hadoop的用户,以及指派到hadoop名称的用户组

[root@hadoop-master ~]# useradd -g hadoop hadoop

修改hadoop用户的密码

[root@hadoop-master ~]# passwd hadoop

为了后续更好的玩耍,不仅限于此软件。给该用户添加 sudo 权限,使其所有命令都不需要密码,即可使用sudo权限。在“root ALL=(ALL) ALL”此行下面追加一行,由于是只读文件,要使用:wq!强制保存。

[root@hadoop-master ~]# vi /etc/sudoers
## Allow root to run any commands anywhere
root    ALL=(ALL)       ALL
hadoop  ALL=(ALL)       NOPASSWD:ALL
执行保存: Esc :wq!

2.选择安装目录(在/soft文件夹放置工具软件,或者按您意思来)

解压缩

[root@hadoop-master /soft]# tar -xvzf flink-1.9.1-bin-scala_2.12.tgz

修改文件夹所属用户和用户组

[root@hadoop-master /soft]# chown -R hadoop:hadoop flink-1.9.1

创建软链接,便于后续的软件升级或多版本切换.(删除软链接:rm -rf /soft/flink)

[root@hadoop-master /soft]# ln -s flink-1.9.1 flink

3.设置环境变量

文件最底部追加以下内容

[root@hadoop-master /soft]# vi /etc/profile
export FLINK_HOME=/soft/flink
export PATH=$PATH:$FLINK_HOME/bin
执行保存: Esc :wq
[root@hadoop-master /soft]# source /etc/profile

四、配置文件-初段位

使用hadoop用户

[root@hadoop-master /soft]# su - hadoop
[hadoop@hadoop-master ~]$ mkdir -p /home/hadoop/flink/conf
[hadoop@hadoop-master ~]$ cp /soft/flink/conf/flink-conf.yaml /home/hadoop/flink/conf
[hadoop@hadoop-master ~]$ vi /home/hadoop/flink/conf/flink-conf.yaml
# 集群的管理端通信地址,默认localhost。如节点机器无法访问,按实际调整本机IP或hostname
# 查看hostname命令:[root@hadoop-master /soft]# hostname
jobmanager.rpc.address: localhost
# 默认网页端口8081,如冲突可按实际调整
rest.port: 8081

五、日志路径(可选)

[hadoop@hadoop-master ~]$ vi /soft/flink/bin/config.sh
# 找到并修改DEFAULT_FLINK_LOG_DIR和YAML_CONF定义行,两个配置项在一起
#DEFAULT_FLINK_LOG_DIR=$FLINK_HOME_DIR_MANGLED/log
DEFAULT_FLINK_LOG_DIR=/home/hadoop/flink/log
# 修改这个调整配置文件参数不起作用。也可以改其它地方,但涉及很多地方调整,结果的话不做调整吧。
#YAML_CONF=${FLINK_CONF_DIR}/${FLINK_CONF_FILE}
YAML_CONF=/home/hadoop/flink/conf/${FLINK_CONF_FILE}
执行保存: Esc :wq
[hadoop@hadoop-master ~]$ mkdir -p ~/flink/log

六、启动测试

使用hadoop用户。因指令已加入到环境变量,可在随意目录下执行。

[hadoop@hadoop-master /soft/flink]$ start-cluster.sh
[hadoop@hadoop-master /soft/flink]$ jps
2755 TaskManagerRunner
2314 StandaloneSessionClusterEntrypoint

访问Web控制台:http://localhost:8081 ,或者IP、hostname域名等方式。如访问正常,则部署成功,欢迎入坑!

七、服务自启动

切换root用户

[hadoop@hadoop-master /soft/flink]$ su - root
[root@hadoop-master /root]# vi /etc/init.d/flink
#!/bin/sh
# chkconfig: 345 85 15
# description: service for flink 1.9.1
# processname: flink

FLINK_DIR="/soft/flink"

case "$1" in
        start)
                echo "Starting Flink"
                su - hadoop -c $FLINK_DIR/bin/start-cluster.sh
                echo "Flink started"
                ;;
        stop)
                echo "Stopping Flink"
                su - hadoop -c $FLINK_DIR/bin/stop-cluster.sh
                echo "Kill Flink SUCCESS!"
                ;;
        restart)
                echo "Restarting Flink"
                $0 stop
                $0 start
                ;;
        *)
                echo "Usage:$0 {start|stop|restart}"
                exit 1
esac
执行保存: Esc :wq
[root@hadoop-master /root]# chmod 755 /etc/init.d/flink
[root@hadoop-master /root]# chkconfig --add flink
[root@hadoop-master /root]# chkconfig flink on

其它关联指令:

  • 启动:service flink start
  • 停止:service flink stop
  • 重启:service flink restart
  • 关闭自启动:chkconfig flink off
  • 删除自启动:chkconfig --del flink
  • 显示当前所有java进程:jps

附录: