IDEA远程DEBUG分析HDP2.6.5版本Spark2.3源码

294 阅读1分钟

IDEA远程DEBUG分析HDP2.6.5版本Spark2.3源码

下载HDP2.6.5对应Spark源码

codeload.github.com/hortonworks…

client端debug

 bin/spark-shell --master yarn --conf spark.hadoop.hadoop.caller.context.enabled=true --driver-java-options "-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=5010"

对应的idea中需要设置remote监听,因为client端是在启动spark-shell的服务器的,所以写它的ip即可。

image-20210219165449739

这里断点提前打在添加自定义hadoop conf的地方,可以看到在命令行输入的hadoop conf在变量区出现。

image-20210219165838669

在prepareContext方法中可以看到context是client的。

image-20210219170208598

AM端debug

 bin/spark-shell --master yarn --conf spark.hadoop.hadoop.caller.context.enabled=true \
--conf spark.yarn.am.extraJavaOptions="-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=5011"

在启动后,需要打开yarn的ui,看看启动的进程的am在哪台服务器。

image-20210219170941005

可以看到是在hadoop-master服务器上。

image-20210219171011860

所以在idea中设置对应的服务器ip即可。

image-20210219171127165

在prepareContext方法中可以看到context是AppMaster的。

image-20210219171217747

Executor端debug

 bin/spark-shell --master yarn  --conf spark.hadoop.hadoop.caller.context.enabled=true \
--conf spark.executor.extraJavaOptions="-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=5012"

启动后,在spark-shell中输入count算子,并执行。

image-20210219173142544

可以看到prepareContext中是task。

image-20210219173212671