hadoop集群搭建

129 阅读1分钟
  1. 集群规划

  2. 使用版本

  3. 上传hadoop、jdk到hadoop11节点上

    1. HDFS修改
      1. 修改core-site.xml

        <!-- 指定namenode节点-->
        <property>
           	<name>fs.defaultFS</name>
           	<value>hdfs://hadoop11:9820</value>
        </property>
        <!--指定文件的存储目录-->
        <property>
               <name>hadoop.tmp.dir</name>
               <value>/opt/modules/hadoop/data/tmp</value>
        </property>
        
      2. 修改hdfs-site.xml
        <!--副本数-->
        <property>`
        	<name>dfs.replication</name>
        	<value>3</value>
        </property>
        <!--secondarynamenode节点-->
        <property>
           	<name>dfs.namenode.secondary.http-address</name>
            <value>hadoop12:9868</value>
        </property> 
        
      3. hadoop-env.sh
        export JAVA_HOME=/opt/modules/jdk
        export HDFS_NAMENODE_USER=can
        export HDFS_DATANODE_USER=can
        export HDFS_SECONDARYNAMENODE_USER=can
        
      4. workers

        hadoop12

        hadoop13

        hadoop14

    2. YARN修改

      1. yarn-env.sh

        export JAVA_HOME=/opt/modules/jdk

      2. yarn-site.xml
        <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
        </property>
        
    3. MapReduce

      1. mapred-env.sh

        export JAVA_HOME=/opt/modules/jdk

      2. mapred-site.xml

        <property>
        	<name>mapreduce.framework.name</name>
        	<value>yarn</value>
        </property>
        
    4. 向其他节点分发文件

      使用scp 或者 rsync 都可以

    5. 启动
      1. 第一次启动需要格式化NameNode

        bin/hdfs namenode -format

      2. 启动hdfs

        sbin/start-dfs.sh

      3. 启动yarn(resourcemanager节点启动)

        sbin/start-yarn.sh

    6. 测试

      浏览器打开hadoop11:9870 可以看到HDFS概况