Hadoop02--虚拟机安装

37 阅读1分钟

一、创建模板虚拟机

点击创建虚拟机-->自定义(高级)

image-20231118114125314

上图直接下一步,稍后安装操作系统

image-20231118114158479

image-20231118114415231

下一步:

image-20231118114617605

然后选择处理器和内核总数,先去任务管理器中查看CPU个数

image-20231118114922905

查出来一共12个CPU,所以下面一定不要超过12个

image-20231118115114357

虚拟机内存选4G即可

image-20231118115217159

网络选择NAT模式

image-20231118115245422

image-20231118115330838

image-20231118115400011

image-20231118115424403

image-20231118115541184

保存在自己目录下:

image-20231118115704700

完成

image-20231118115729011

上面创建好了硬件,下面安装Centos7的软件,下载好以后直接放在这个目录下:D:\virtual_softwares\CentOS-7.5-x86_64-DVD-1804.iso

image-20231118143436624

这个页面直接回车

image-20231118143524962

然后就进入了这个页面:

选择中文

image-20231118144333336

设置时间:

image-20231118144510918

选择带界面的安装:

image-20231118144638006

我要配置分区,点击完成:

image-20231118144814750

/boot分配1G

image-20231118144900828

选择ext4:

image-20231118144949913

swap分区4g

image-20231118145104777

配置如下:

image-20231118145133711

根目录45g:

image-20231118145204242

配置如下:

image-20231118145231389

接受更改:

image-20231118145305926

kdump是用于server崩溃时备份的,所以这里取消启用kdump:

image-20231118145413819

网络配置设置主机名,打开网络,ip目前时192.168.200.138

image-20231118145541263

这些都配置完成后点击开始安装即可

配置root密码,现在设置的只有4位,这些都完成后,点击重启即可

完成后先接受协议,然后点击完成配置:

image-20231118151956752

进来以后这一步,直接跳过:

image-20231118152111896

image-20231118152142072

这里记得选择atguigu,密码000000:

image.png

二、修改IP地址和主机名称

这三个地方都要修改IP地址(VM,Hadoop和Windows):

image-20231118152446291

首先在这个位置修改子网IP image.png

image-20231118152827279

Windows修改:

image-20231118152941966

image-20231118153107802

第三处进入虚拟机终端,切换到root用户,更改网络的配置:

[atguigu@hadoop100 ~]$ su root
密码:
[root@hadoop100 atguigu]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 

更改如下配置:

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="a2190713-c059-45a9-9e82-755e376d67a6"
DEVICE="ens33"
ONBOOT="yes"
#ip
IPADDR=192.168.10.100
GATEWAY=192.168.10.2
DNS1=192.168.10.2

主机名称修改位Hadoop100

[root@hadoop100 atguigu]# vim /etc/hostname 

设置主机名和IP的映射,以后IP地址可以使用主机名,方便修改:

[root@hadoop100 atguigu]# vim /etc/hosts

里面的参数

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.10.100 Hadoop100
192.168.10.101 Hadoop101
192.168.10.102 Hadoop102
192.168.10.103 Hadoop103
192.168.10.104 Hadoop104
192.168.10.105 Hadoop105
192.168.10.106 Hadoop106
192.168.10.107 Hadoop107
192.168.10.108 Hadoop108

然后reboot重启使网络配置生效

修改C盘下的映射C:\WINDOWS\System32\drivers\etc\hosts

也添加这几个映射即可

192.168.10.100 Hadoop100
192.168.10.101 Hadoop101
192.168.10.102 Hadoop102
192.168.10.103 Hadoop103
192.168.10.104 Hadoop104
192.168.10.105 Hadoop105
192.168.10.106 Hadoop106
192.168.10.107 Hadoop107
192.168.10.108 Hadoop108

三、安装一些软件,执行模板虚拟机最后的操作

安装epel-release:

yum install -y epel-release

如果安装的是最小系统,那么需要安装net-tool和vim:

yum install -y net-tools
yum install -y vim

关闭防火墙:

systemctl stop firewalld
systemctl disable firewalld.service

安装atguigu用户

useradd atguigu
passwd atguigu

配置atguigu用户具有root权限,方便后期添加sudo执行root权限

vim /etc/sudoers

#在文件中的%wheel这行下面加上
%wheel ALL=(ALL) ALL
atguigu ALL=(ALL) NOPASSWD:ALL

卸载虚拟机自带的JDK

rpm -qa| grep -i java | xargs -n1 rpm -e --nodeps

然后重启虚拟机

四、克隆三个server

关闭模板服务器,选择管理-->克隆

image-20231118162525907

image-20231118162548078

image-20231118162703798

三个都按照这个方式创建即可

修改,修改etc下的三个文件,然后重启:

  • /etc/sysconfig/network-scripts/ifcfg-ens33:修改成各自的主机名称
  • /etc/hostname 修改成对应的主机名
  • /etc/hosts 查看映射是否在里面

Hadoop102安装jdk

使用xftp将jdk的tar.gz包传到server中

tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

安装完需要配置环境变量,以前都是配置在/etc/profile中的,这次看看这个文件:

image-20231118172128836

它会遍历/etc/profile.d下的所有sh后缀的文件,所以我们可以自定义配一个,创建一个my_env.sh:

#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

source一下就可以用了

Hadoop102安装Hadoop

解压:

tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

配置环境变量:

#Hadoop
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

输出ha看能不能自动补齐hadoop即可