本文已参与「新人创作礼」活动,一起开启掘金创作之路。
目录
集群安装部署
Step1:上传HBase压缩包
Step2:解压
tar -zxvf /export/server/hbase-2.1.0.tar.gz
Step3: 在/etc/profile文件中配置环境变量
vim /etc/profile export HBASE_HOME=/export/server/hbase-2.1.0 export PATH=$PATH:${HBASE_HOME}/bin:${HBASE_HOME}/sbin
Step4:在各个节点上,使配置文件立即生效
source /etc/profile
Step5:修改HBase的conf下的配置文件
cd /export/server/hbase-2.1.0/conf vim hbase-env.sh export JAVA_HOME=/export/server/jdk1.8.0_241/ export HBASE_MANAGES_ZK=false
Step6:修改hbase-site.xml中的内容
vim hbase-site.xml ------------------------------ <configuration> <!-- HBase数据在HDFS中的存放的路径 --> <property> <name>hbase.rootdir</name> <value>hdfs://node1.itcast.cn:8020/hbase</value> </property> <!-- Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面 --> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- ZooKeeper的地址 --> <property> <name>hbase.zookeeper.quorum</name> <value>node1.itcast.cn,node2.itcast.cn,node3.itcast.cn</value> </property> <!-- ZooKeeper快照的存储位置 --> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/export/server/apache-zookeeper-3.6.0-bin/data</value> </property> <!-- V2.1版本,在分布式情况下, 设置为false --> <property> <name>hbase.unsafe.stream.capability.enforce</name> <value>false</value> </property> </configuration>
Step7:修改regionservers,就像修改Hadoop的worker一样
vim regionservers 添加 node1 node2 node3
Step8:复制jar包到lib
cp $HBASE_HOME/lib/client-facing-thirdparty/htrace-core-3.1.0-incubating.jar $HBASE_HOME/lib/
Step9:分发hbase文件和环境变量的文件
cd /export/server scp -r hbase-2.1.0/ node2.itcast.cn:$PWD scp -r hbase-2.1.0/ node3.itcast.cn:$PWD scp -r /etc/profile node2.itcast.cn:/etc scp -r /etc/profile node3.itcast.cn:/etc 在node2.itcast.cn和node3.itcast.cn加载环境变量 source /etc/profile
启动HBase
启动HBase服务
启动Hadoop:start-all.sh
启动zookeeper:./zkServer start
启动hbase:./start-hbase.sh
停止HBase服务
./stop-hbase.sh
启动HBase shell客户端
hbase shell
查看HBase页面