首先参考DSS 和 Linkis一键安装部署文档来安装。
DataSphere Studio & Linkis 单机一键部署文档
安装完成后,浏览器输入http://192.168.233.131:18088/#/login 登录页面如下图所示:
如果严格按照DSS一键安装文档来的,那么默认的用户名密码应该是 hadoop / hadoop 如果不是严格按照文档来进行安装的,可能找不到用户名密码。这个地方我也找了好久,看源码找到了。
(你的安装路径)/dss/linkis/conf/linkis-mg-gateway.properties 这个文件中,找到如下图所示的2行内容:
比如此处我的user是root,密码是aafe7c9ce,这个应该是一键安装的时候,自动生成的随机字符串,用户名应该是运行一键安装脚本的用户名。
OK,正文开始,下面开始分析DSS和linkis的交互过程,以及如何用Postman等外部工具去请求Linkis,而不是在浏览器中。
点击登录之前,先打开开发者控制台,然后切换到网络选项卡,然后再点击登录。
这里可以看到cookie字段,第二个请求是getBaseInfo请求,可以看到发送请求的时候,cookie的值。只需要把这里的Cookie值复制到Postman中,即可在Postman中对接口进行调试。
如图所示,把getBaseInfo这个接口的地址拷贝到Postman中来进行调试,需要在Headers中增加一个Cookie字段,内容填类似workspaceId=224; bdp-user-ticket-id=3cSULn63z6C6PiO6VlWkrdUrHob2OWQ5,当然这个是我的Cookie,每个人的都不一样,每次登录退出后也都不一样。当然,其实我又测试了一下,其实只要填写bdp-user-ticket-id=xxxxx即可,如下图所示:
接下来,我们可以挑选自己比较感兴趣的按钮来触发,看看点击按钮后请求的接口。比如假设我对这个hive脚本运行按钮按下后发生的事情比较感兴趣,那么我就可以写一段代码,然后点击运行,如下图所示
运行成功的结果在这里
然后调用接口去获取文件内容,即运行结果数据。
下面是关于这个运行按钮按下后,涉及到的所有请求操作截图:
至此,Linkis如何用Postman调试,如何跟踪dss请求告一段落,下面的文章将要就这篇文章中运行的底层进行分析,包括execute请求,saveScript请求,status请求,process请求,GetDirFileTrees请求,OpenFile请求,heartbeat请求等进行分析。