2021年大数据Flink(四):Standalone独立集群模式

180 阅读3分钟

目录

Standalone独立集群模式

原理

操作

1.集群规划:

2.修改flink-conf.yaml

3.修改masters

4.修改slaves

5.添加HADOOP_CONF_DIR环境变量

6.分发

7.source

​​​​​​​测试

1.启动集群,在node1上执行如下命令

2.启动历史服务器

3.访问Flink UI界面或使用jps查看

4.执行官方测试案例

5.查看历史日志

6.停止Flink集群


Standalone 独立集群模式

原理

 

 

  1. client客户端提交任务给JobManager
  2. JobManager负责申请任务运行所需要的资源并管理任务和资源,
  3. JobManager分发任务给TaskManager执行
  4. TaskManager定期向JobManager汇报状态

 

​​​​​​​操作

1.集群规划:

  • - 服务器: node1(Master + Slave): JobManager + TaskManager
  • - 服务器: node2(Slave): TaskManager
  • - 服务器: node3(Slave): TaskManager

 

2.修改flink-conf.yaml

vim /export/server/flink/conf/flink-conf.yaml
jobmanager.rpc.address: node1

taskmanager.numberOfTaskSlots: 2

web.submit.enable: true



#历史服务器

jobmanager.archive.fs.dir: hdfs://node1:8020/flink/completed-jobs/

historyserver.web.address: node1

historyserver.web.port: 8082

historyserver.archive.fs.dir: hdfs://node1:8020/flink/completed-jobs/

 

3.修改masters

vim /export/server/flink/conf/masters
node1:8081

 

4.修改slaves

vim /export/server/flink/conf/workers
node1

node2

node3

 

5.添加HADOOP_CONF_DIR环境变量

vim /etc/profile
export HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop

 

6.分发

 scp -r /export/server/flink node2:/export/server/flink
 scp -r /export/server/flink node3:/export/server/flink
 scp  /etc/profile node2:/etc/profile
 scp  /etc/profile node3:/etc/profile
 for i in {2..3}; do scp -r flink node$i:$PWD; done

7.source

source /etc/profile

 

​​​​​​​测试

1.启动集群,在node1上执行如下命令

 /export/server/flink/bin/start-cluster.sh



/export/server/flink/bin/jobmanager.sh ((start|start-foreground) cluster)|stop|stop-all

/export/server/flink/bin/taskmanager.sh start|start-foreground|stop|stop-all

 

2.启动历史服务器

/export/server/flink/bin/historyserver.sh start

 

3.访问Flink UI界面或使用jps查看

http://node1:8081/#/overview

http://node1:8082/#/overview

TaskManager界面:可以查看到当前Flink集群中有多少个TaskManager,每个TaskManager的slots、内存、CPU Core是多少

 

 

4.执行官方测试案例

/export/server/flink/bin/flink run  /export/server/flink/examples/batch/WordCount.jar --input hdfs://node1:8020/wordcount/input/words.txt --output hdfs://node1:8020/wordcount/output/result.txt  --parallelism 2

 

5.查看历史日志

http://node1:50070/explorer.html#/flink/completed-jobs

http://node1:8082/#/overview

 

6.停止Flink集群

/export/server/flink/bin/stop-cluster.sh