cdh6安装spark2

2,116 阅读2分钟

引言:更多相关请看 个人系列

通过Cdh安装Spark2

一般CM页面-> 主机 -> Parcel页面可以看到新的spark2的parcel包

然后点击 下载-进行分配-激活。

If you selected Use Parcels, specify any Additional Parcels you want to install. If you are installing CDH 6, do not select the KAFKA, KUDU, or SPARK parcels, because they are included in CDH 6.

spark 2.4的parcels本身就再cdh6里面了,不需要你自己额外下载。所以直接添加服务即可,跳过parcel下载。

停止集群

添加服务

选择依赖

角色分配

审核更改

文件位置空着,密码1234。
其实这个root 或者admin 默认是没有的,这里是浏览器自动填充的,所以,删掉就ok了。

添加详情

bug:Failed to deploy client config <spark-conf..

Failed to deploy client config <spark-conf,/etc/spark/conf.cloudera.spark_on_yarn>: timeout with args ['/opt/cloudera/cm-agent/service/client/deploy-cc.sh']

具体可以参考ailed to deploy client conf..。 相关命令

# 查看服务器java版本,有没有再服务器管理之下,没有就是不正常的
alternatives --config java
# 将jdk添加到服务器管理中
alternatives --install /usr/bin/java java /usr/java/jdk1.8.0_181-cloudera/ 3
# 再次查看服务器java版本
[root@hadoop104 spark]# alternatives --config java

There is 1 program that provides 'java'.

  Selection    Command
-----------------------------------------------
*+ 1           /usr/java/jdk1.8.0_181-cloudera/

Enter to keep the current selection[+], or type selection number: 1
#如果以上方法不可用,采用以下方法,直接指定环境变量:
[root@hadoop102 bin]# find / -type f -name "*cc.sh"
/opt/cloudera/cm-agent/service/client/deploy-cc.sh
vim /opt/cloudera/cm-agent/service/client/deploy-cc.sh
加入export JAVA_HOME=/usr/java/jdk1.8.0_181-cloudera
# 集群的服务器的deploy-cc.sh都修改下
xsync /opt/cloudera/cm-agent/service/client/deploy-cc.sh
# CDH仅完成 0/3 个步骤。首个失败:主机 node6 (id=2) 上的客户端配置 (id=1) 已使用 1 退出,而预期值为 0。javaHome出现了问题,JAVA_HOME并不是根据环境变量来获取,而是在它列举的几个目录下寻找。创建软连接。集群里的每个节点都执行下
ln -s /usr/java/jdk /usr/java/default

再次点击resume重试,最好重新启动scm-server、scm-agent