本文已参与「新人创作礼」活动,一起开启掘金创作之路。
目录
第一种客户端:hive
编辑
Step1:首先启动metastore服务
#启动metastore服务 nohup /export/server/hive/bin/hive --service metastore &
Step2:直接打开客户端
#启动客户端 /export/server/apache-hive-3.1.2-bin/bin/hive
下一步可以书写SQL
第二种客户端:beeline
编辑
远程访问的方式访问第二种服务,注意要启动HiveServer2得先启动Metastore。
Step1:将node1上的hive安装包拷贝给node3
#将安装包复制给node3下的root的用户 scp -r /export/server/apache-hive-3.1.2-bin root@node3:/export/server
Step2:打开node1上的两种服务
#启动metastore服务和hiveserver2服务 nohup /export/server/hive/bin/hive --service metastore & nohup /export/server/hive/bin/hive --service hiveserver2 &
Step3:在node3上远程访问服务
#启动客户端 /export/server/apache-hive-3.1.2-bin/bin/beeline
Step4:手动输入要连接的服务和当前登录用户
编辑
Step5:写SQL
编辑
注意 :
因为安装包在hive文件中说明了服务的位置在node1,所以可以在node3上远程访问node1服务。
编辑
第二种服务比第一种服务安全性能更好
第三种客户端:可视化客户端
如DataGrip,Dbeaver都可以通过JDBC协议去连接hiveserver2服务。
Step0:先启动Hadoop集群,再启动上面两个Hive的服务,通过jps查看Linux的进程,来检查是否启动成功
Step1:下载datagrip
Step2:创建工程
编辑
编辑
Step3:右键Files悬浮框的空白区域,选中我们刚才创建的example-hive文件夹,这个文件夹就是存放SQL文件的工作目录,注意区别database悬浮框,这两个都可能在左边或右边
编辑
Step4:找到database,添加数据源
编辑
Step5:配置驱动和连接的服务器(本地或者非本地),最后需要测试连接。
编辑
编辑
\