Hadoop(HA)、Hadoop HA高可用

131 阅读3分钟

开启掘金成长之旅!这是我参与「掘金日新计划 · 12 月更文挑战」的第32天,点击查看活动详情

第一章 Hadoop HA高可用

1.1 HA概述

(1)所谓HA(High Availablity),即高可用(7 * 24小时不中断服务)。 (2)实现高可用最关键的策略是消除单点故障。HA严格来说应该分成各个组件的HA机制:HDFS的HA和YARN的HA。 (3)NameNode主要在以下两个方面影响HDFS集群 NameNode机器发生意外,如宕机,集群将无法使用,直到管理员重启。 NameNode机器需要升级,包括软件、硬件升级,此时集群也将无法使用。 HDFS HA功能通过配置多个NameNodes(Active/Standby)实现在集群中对NameNode的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将NameNode很快的切换到另外一台机器。

1.2 HDFS-HA核心问题

1.2.1 HDFS-HA故障转移机制

Zookeeper服务端 Edits文件管理系统:qjournal 5 如果ssh补 刀失败则调用 用户自定义脚 本程序 6 获取命令运 行结果 /home/atguigu/kill/ poweroff.sh 1 假死 2 检测到假死 3 通知另一台NameNode的zkfc 4 强行杀死namenode,防止脑裂 ssh kill -9 namenode进程号 同时出现两个Active状态 namenode的术语叫脑裂brain split。 防止脑裂的两种方式: 1)ssh发送kill指令 2)调用用户自定义脚本程序 7 激活本台namenode,切换为Active Zookeeper客户端 Zookeeper客户端 Name node Name node active standby 内存中的元数据 内存中的元数据 fsimage fsimage 在这里插入图片描述1)怎么保证三台namenode的数据一致 (1)Fsimage:让一台nn生成数据,让其他机器nn同步。 (2)Edits:需要引进新的模块JournalNode来保证edtis的文件的数据一致性。 2)怎么让同时只有一台nn是active,其他所有是standby的 (1)手动分配 (2)自动分配 3)2nn在ha架构中并不存在,定期合并fsimage和edtis的活谁来干 由standby的nn来干。 4)如果nn真的发生了问题,怎么让其他的nn上位干活 (1)手动故障转移 (2)自动故障转移

1.3 HDFS-HA手动模式

1.3.1 环境准备

(1)修改IP (2)修改主机名及主机名和IP地址的映射 (3)关闭防火墙 (4)ssh免密登录 (5)安装JDK,配置环境变量等

1.3.2 规划集群

hadoop102hadoop103hadoop104
NameNodeNameNodeNameNode
JournalNodeJournalNodeJournalNode
DataNodeDataNodeDataNode

1.3.3 配置HDFS-HA集群

1)官方地址:hadoop.apache.org/ 2)在opt目录下创建一个ha文件夹

[summer@hadoop102 ~]$ cd /opt
[summer@hadoop102 opt]$ sudo mkdir ha
[summer@hadoop102 opt]$ sudo chown summer:summer/opt/ha

3)将/opt/module/下的 hadoop-3.1.3拷贝到/opt/ha目录下(记得删除data 和 log目录)

[summer@hadoop102 opt]$ cp -r /opt/module/hadoop-3.1.3 /opt/ha/

4)配置core-site.xml

<configuration>
  <!-- 把多个NameNode的地址组装成一个集群mycluster -->
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://mycluster</value>
  </property>

  <!-- 指定hadoop运行时产生文件的存储目录 -->
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/ha/hadoop-3.1.3/data</value>
  </property>
</configuration>

5)配置hdfs-site.xml

<configuration>

  <!-- NameNode数据存储目录 -->
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file://${hadoop.tmp.dir}/name</value>
  </property>

  <!-- DataNode数据存储目录 -->
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file://${hadoop.tmp.dir}/data</value>
  </property>

  <!-- JournalNode数据存储目录 -->
  <property>
    <name>dfs.journalnode.edits.dir</name>
    <value>${hadoop.tmp.dir}/jn</value>
  </property>

  <!-- 完全分布式集群名称 -->
  <property>
    <name>dfs.nameservices</name>
    <value>mycluster</value>
  </property>

  <!-- 集群中NameNode节点都有哪些 -->
  <property>
    <name>dfs.ha.namenodes.mycluster</name>
    <value>nn1,nn2,nn3</value>
  </property>

  <!-- NameNode的RPC通信地址 -->
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn1</name>
    <value>hadoop102:8020</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn2</name>
    <value>hadoop103:8020</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn3</name>
    <value>hadoop104:8020</value>
  </property>

  <!-- NameNode的http通信地址 -->
  <property>
    <name>dfs.namenode.http-address.mycluster.nn1</name>
    <value>hadoop102:9870</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.mycluster.nn2</name>
    <value>hadoop103:9870</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.mycluster.nn3</name>
    <value>hadoop104:9870</value>
  </property>

  <!-- 指定NameNode元数据在JournalNode上的存放位置 -->
  <property>
    <name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop102:8485;hadoop103:8485;hadoop104:8485/mycluster</value>
  </property>

  <!-- 访问代理类:client用于确定哪个NameNode为Active -->
  <property>
    <name>dfs.client.failover.proxy.provider.mycluster</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  </property>

  <!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->
  <property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>
  </property>

  <!-- 使用隔离机制时需要ssh秘钥登录-->
  <property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/home/atguigu/.ssh/id_rsa</value>
  </property>

</configuration>

6)分发配置好的hadoop环境到其他节点

1.3.4 启动HDFS-HA集群

1)将HADOOP_HOME环境变量更改到HA目录(三台机器)

[summer@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh

将HADOOP_HOME部分改为如下

#HADOOP_HOME
export HADOOP_HOME=/opt/ha/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

去三台机器上source环境变量

[summer@hadoop102 ~]$source /etc/profile

2)在各个JournalNode节点上,输入以下命令启动journalnode服务

[summer@hadoop102 ~]$ hdfs --daemon start journalnode
[summer@hadoop103 ~]$ hdfs --daemon start journalnode
[summer@hadoop104 ~]$ hdfs --daemon start journalnode

3)在[nn1]上,对其进行格式化,并启动

[summer@hadoop102 ~]$ hdfs namenode -format
[summer@hadoop102 ~]$ hdfs --daemon start namenode

4)在[nn2]和[nn3]上,同步nn1的元数据信息

[summer@hadoop103 ~]$ hdfs namenode -bootstrapStandby
[summer@hadoop104 ~]$ hdfs namenode -bootstrapStandby

5)启动[nn2]和[nn3]

[summer@hadoop103 ~]$ hdfs --daemon start namenode
[summer@hadoop104 ~]$ hdfs --daemon start namenode

6)查看web页面显示 在这里插入图片描述

图 hadoop102(standby) 在这里插入图片描述

图 hadoop103(standby) 在这里插入图片描述

图 hadoop104(standby) 7)在所有节点上,启动datanode

[summer@hadoop102 ~]$ hdfs --daemon start datanode
[summer@hadoop103 ~]$ hdfs --daemon start datanode
[summer@hadoop104 ~]$ hdfs --daemon start datanode

8)将[nn1]切换为Active

[summer@hadoop102 ~]$ hdfs haadmin -transitionToActive nn1

9)查看是否Active

[summer@hadoop102 ~]$ hdfs haadmin -getServiceState nn1

1.4 HDFS-HA 自动模式

1.4.1 HDFS-HA自动故障转移工作机制

自动故障转移为HDFS部署增加了两个新组件:ZooKeeper和ZKFailoverController(ZKFC)进程,如图所示。ZooKeeper是维护少量协调数据,通知客户端这些数据的改变和监视客户端故障的高可用服务。

1.4.2 HDFS-HA自动故障转移的集群规划

hadoop102hadoop103hadoop104
NameNodeNameNodeNameNode
JournalNodeJournalNodeJournalNode
DataNodeDataNodeDataNode
ZookeeperZookeeperZookeeper
ZKFCZKFCZKFC