开启掘金成长之旅!这是我参与「掘金日新计划 · 12 月更文挑战」的第32天,点击查看活动详情
第一章 Hadoop HA高可用
1.1 HA概述
(1)所谓HA(High Availablity),即高可用(7 * 24小时不中断服务)。 (2)实现高可用最关键的策略是消除单点故障。HA严格来说应该分成各个组件的HA机制:HDFS的HA和YARN的HA。 (3)NameNode主要在以下两个方面影响HDFS集群 NameNode机器发生意外,如宕机,集群将无法使用,直到管理员重启。 NameNode机器需要升级,包括软件、硬件升级,此时集群也将无法使用。 HDFS HA功能通过配置多个NameNodes(Active/Standby)实现在集群中对NameNode的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将NameNode很快的切换到另外一台机器。
1.2 HDFS-HA核心问题
1.2.1 HDFS-HA故障转移机制
Zookeeper服务端
Edits文件管理系统:qjournal
5 如果ssh补
刀失败则调用
用户自定义脚
本程序
6 获取命令运
行结果
/home/atguigu/kill/ poweroff.sh
1 假死
2 检测到假死
3 通知另一台NameNode的zkfc 4 强行杀死namenode,防止脑裂
ssh kill -9 namenode进程号
同时出现两个Active状态
namenode的术语叫脑裂brain
split。
防止脑裂的两种方式:
1)ssh发送kill指令
2)调用用户自定义脚本程序
7 激活本台namenode,切换为Active Zookeeper客户端
Zookeeper客户端
Name node Name node active standby 内存中的元数据 内存中的元数据
fsimage fsimage
1)怎么保证三台namenode的数据一致
(1)Fsimage:让一台nn生成数据,让其他机器nn同步。
(2)Edits:需要引进新的模块JournalNode来保证edtis的文件的数据一致性。
2)怎么让同时只有一台nn是active,其他所有是standby的
(1)手动分配
(2)自动分配
3)2nn在ha架构中并不存在,定期合并fsimage和edtis的活谁来干
由standby的nn来干。
4)如果nn真的发生了问题,怎么让其他的nn上位干活
(1)手动故障转移
(2)自动故障转移
1.3 HDFS-HA手动模式
1.3.1 环境准备
(1)修改IP (2)修改主机名及主机名和IP地址的映射 (3)关闭防火墙 (4)ssh免密登录 (5)安装JDK,配置环境变量等
1.3.2 规划集群
hadoop102 | hadoop103 | hadoop104 |
---|---|---|
NameNode | NameNode | NameNode |
JournalNode | JournalNode | JournalNode |
DataNode | DataNode | DataNode |
1.3.3 配置HDFS-HA集群
1)官方地址:hadoop.apache.org/ 2)在opt目录下创建一个ha文件夹
[summer@hadoop102 ~]$ cd /opt
[summer@hadoop102 opt]$ sudo mkdir ha
[summer@hadoop102 opt]$ sudo chown summer:summer/opt/ha
3)将/opt/module/下的 hadoop-3.1.3拷贝到/opt/ha目录下(记得删除data 和 log目录)
[summer@hadoop102 opt]$ cp -r /opt/module/hadoop-3.1.3 /opt/ha/
4)配置core-site.xml
<configuration>
<!-- 把多个NameNode的地址组装成一个集群mycluster -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/ha/hadoop-3.1.3/data</value>
</property>
</configuration>
5)配置hdfs-site.xml
<configuration>
<!-- NameNode数据存储目录 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file://${hadoop.tmp.dir}/name</value>
</property>
<!-- DataNode数据存储目录 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file://${hadoop.tmp.dir}/data</value>
</property>
<!-- JournalNode数据存储目录 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>${hadoop.tmp.dir}/jn</value>
</property>
<!-- 完全分布式集群名称 -->
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<!-- 集群中NameNode节点都有哪些 -->
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2,nn3</value>
</property>
<!-- NameNode的RPC通信地址 -->
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>hadoop102:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>hadoop103:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn3</name>
<value>hadoop104:8020</value>
</property>
<!-- NameNode的http通信地址 -->
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>hadoop102:9870</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>hadoop103:9870</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn3</name>
<value>hadoop104:9870</value>
</property>
<!-- 指定NameNode元数据在JournalNode上的存放位置 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop102:8485;hadoop103:8485;hadoop104:8485/mycluster</value>
</property>
<!-- 访问代理类:client用于确定哪个NameNode为Active -->
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<!-- 使用隔离机制时需要ssh秘钥登录-->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/atguigu/.ssh/id_rsa</value>
</property>
</configuration>
6)分发配置好的hadoop环境到其他节点
1.3.4 启动HDFS-HA集群
1)将HADOOP_HOME环境变量更改到HA目录(三台机器)
[summer@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh
将HADOOP_HOME部分改为如下
#HADOOP_HOME
export HADOOP_HOME=/opt/ha/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
去三台机器上source环境变量
[summer@hadoop102 ~]$source /etc/profile
2)在各个JournalNode节点上,输入以下命令启动journalnode服务
[summer@hadoop102 ~]$ hdfs --daemon start journalnode
[summer@hadoop103 ~]$ hdfs --daemon start journalnode
[summer@hadoop104 ~]$ hdfs --daemon start journalnode
3)在[nn1]上,对其进行格式化,并启动
[summer@hadoop102 ~]$ hdfs namenode -format
[summer@hadoop102 ~]$ hdfs --daemon start namenode
4)在[nn2]和[nn3]上,同步nn1的元数据信息
[summer@hadoop103 ~]$ hdfs namenode -bootstrapStandby
[summer@hadoop104 ~]$ hdfs namenode -bootstrapStandby
5)启动[nn2]和[nn3]
[summer@hadoop103 ~]$ hdfs --daemon start namenode
[summer@hadoop104 ~]$ hdfs --daemon start namenode
6)查看web页面显示
图 hadoop102(standby)
图 hadoop103(standby)
图 hadoop104(standby) 7)在所有节点上,启动datanode
[summer@hadoop102 ~]$ hdfs --daemon start datanode
[summer@hadoop103 ~]$ hdfs --daemon start datanode
[summer@hadoop104 ~]$ hdfs --daemon start datanode
8)将[nn1]切换为Active
[summer@hadoop102 ~]$ hdfs haadmin -transitionToActive nn1
9)查看是否Active
[summer@hadoop102 ~]$ hdfs haadmin -getServiceState nn1
1.4 HDFS-HA 自动模式
1.4.1 HDFS-HA自动故障转移工作机制
自动故障转移为HDFS部署增加了两个新组件:ZooKeeper和ZKFailoverController(ZKFC)进程,如图所示。ZooKeeper是维护少量协调数据,通知客户端这些数据的改变和监视客户端故障的高可用服务。
1.4.2 HDFS-HA自动故障转移的集群规划
hadoop102 | hadoop103 | hadoop104 |
---|---|---|
NameNode | NameNode | NameNode |
JournalNode | JournalNode | JournalNode |
DataNode | DataNode | DataNode |
Zookeeper | Zookeeper | Zookeeper |
ZKFC | ZKFC | ZKFC |