平台组件hadoop

111 阅读1分钟

平台组件

hive部分

msyql

1.删除MariaDB

rpm -aq | grep mariadb  --查询是不是安装软件
rpm -e --nodeps mariadb-libs  --删除mariadb

2.安装依赖

yum install perl -y
yum install net-tools -y

3.安装MySQL

tar xvf + MySQL压缩包

rpm -ivh mysql-community-common-5.7.26-1.el7.x86_64.rpm
rpm -ivh mysql-community-libs-5.7.26-1.el7.x86_64.rpm
rpm -ivh mysql-community-client-5.7.26-1.el7.x86_64.rpm
rpm -ivh mysql-community-server-5.7.26-1.el7.x86_64.rpm  --force --nodeps

4.启动数据库

systemctl start mysqld

5.查找数据库密码

grep password /var/log/mysqld.log

7**.修改 root 口令**

# 进入MySQL,使用前面查询到的口令
mysql -u root -p

# 设置口令强度;
set global validate_password_policy=0;

# 将root口令设置为12345678;
set password for 'root'@'localhost' =password('12345678');

# 刷新
flush privileges;

8.创建root

-- 创建用户设置口令、授权、刷新
CREATE USER 'hive'@'%' IDENTIFIED BY '12345678';
GRANT ALL ON *.* TO 'hive'@'%';
FLUSH PRIVILEGES;

hive

1.下载hive,并且压缩

tar -zxvf +hive压缩包 
mv hive压缩包 hive

2.修改环境变量

# 在 /etc/profile 文件中增加环境变量
export HIVE_HOME=/opt/lagou/servers/hive-2.3.7
export PATH=$PATH:$HIVE_HOME/bin
# 执行并生效
source /etc/profile
3.修改配置文件
vim hive-site.xml


<configuration>
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://linux123:3306/hive?useSSL=false</value>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.jdbc.Driver</value>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>hive</value>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>12345678</value>
	</property>
</configuration>

4.拷贝 MySQL JDBC 驱动程序

cp mysql-connector-java 到hive/lib

5.初始化元数据库

schematool -dbType mysql -initSchema

6.启动Hive,执行命令

# 启动hive服务之前,请先启动hdfs、yarn的服务
[root@linux123 ~]$ hive  # 进入hive命令
hive> show functions;  # 在hive中执行命令

题外

显示当前库
<property>
    <!-- 在命令行中,显示当前操作的数据库 -->
    <name>hive.cli.print.current.db</name>
    <value>true</value>
    <description>Whether to include the current database in the Hive prompt.</description>
</property>

<property>
    <!-- 在命令行中,显示数据的表头 -->
    <name>hive.cli.print.header</name>
    <value>true</value>
</property>

spark

scala

在安装spark前先安装scala

1.解压scala

tar -zxvf scala-2.13.0.tgz

2.配置环境变量

vim /etcprofile
export SCALA_HOME=/opt/scala
export PATH=$PATH:$SCALA_HOME/bin
source /etc/profile

spark

1.解压spark

tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
mv spark-2.4.3-bin-hadoop2.7/ spark-2.4.3

2.修改配置文件vim spark-env.sh

vim spark-env.sh

HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop
YARN_CONF_DIR=/opt/hadoop/etc/hadoop
3.修改hadoop/etc/hadoop/yarn-site.xml
  <!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
 <property>
     <name>yarn.nodemanager.vmem-check-enabled</name>
     <value>false</value>
 </property>

4.分发到别的集群机上

scp -r hadoop/etc/hadoop slave1:/opt/hadoop/etc/hadoop
scp -r hadoop/etc/hadoop slave2:/opt/hadoop/etc/hadoop

5.启动全部节点

start-all.sh

6.使spark-shell运行在yarn上面

spark-shell --master yarn

7.测试spark集群命令

./spark-submit --class org.apache.spark.examples.SparkPi --master yarn ../examples/jars/spark-examples_2.12-3.1.1.jar 

hbase

1.解压安装

tar -zxvf /opt/hbase
mv hbase hbase

2.配置环境变量

vim /etc/profile

export HBASE_HOME=/opt/hbase
export PATH=$PATH:$HBASE_HOME/bin

3.配置vim /usr/local/hbase/conf/hbase-env.sh文件

vim /usr/local/hbase/conf/hbase-env.sh

export JAVA_HOME=/opt/jdk
export HBASE_CLASSPATH=/opt/hbase/conf/
export HBASE_MANAGES_ZK=true
4.配置/usr/local/hbase/conf/hbase-site.xml
vim /usr/local/hbase/conf/hbase-site.xml

<configuration>
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://localhost:9000/hbase</value>
        </property>
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
        <property>
        <name>hbase.unsafe.stream.capability.enforce</name>
        <value>false</value>
    </property>
</configuration>

5.启动Hadoop跟hbase

start-all.sh --启动Hadoop
start-hbase.sh  --启动hbase

全部的启动命令

start-all.sh  --启动Hadoop
systemctl start mysqld  --启动MySQL
spark-shell --master yarn  --启动spark
bin/hive --service metastore &  hive服务器启动命令