7.1 链路追踪简介
7.1.1 为什么需要链路追踪
\
微服务架构是一个分布式架构,它按业务划分服务单元,一个分布式系统往往有很多个服务单元。由于服务单元数量众多,业务的复杂性,如果出现了错误和异常,很难去定位。主要体现在,一个请求可能需要调用很多个服务,而内部服务的调用复杂性,决定了问题难以定位。所以微服务架构中,必须实现分布式链路追踪,去跟进一个请求到底有哪些服务参与,参与的顺序又是怎样的,从而达到每个请求的步骤清晰可见,出了问题,很快定位。
举个例子,在微服务系统中,一个来自用户的请求,请求先达到前端A(如前端界面),然后通过远程调用,达到系统的中间件B、C(如负载均衡、网关等),最后达到后端服务D、E,后端经过一系列的业务逻辑计算最后将数据返回给用户。对于这样一个请求,经历了这么多个服务,怎么样将它的请求过程的数据记录下来呢?这就需要用到服务链路追踪。
Google开源的 Dapper链路追踪组件,并在2010年发表了论文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,这篇文章是业内实现链路追踪的标杆和理论基础,具有非常大的参考价值。
目前,链路追踪组件有Google的Dapper,Twitter 的Zipkin,以及阿里的Eagleeye (鹰眼)等,它们都是非常优秀的链路追踪开源组件。
7.1.2 基本术语
Spring Cloud Sleuth采用的是Google的开源项目Dapper的专业术语。如图7-1所示
- Span:基本工作单元,发送一个远程调度任务 就会产生一个Span,Span是一个64位ID唯一标识的,Trace是用另一个64位ID唯一标识的,Span还有其他数据信息,比如摘要、时间戳事件、Span的ID、以及进度ID。
- Trace:一系列Span组成的一个树状结构。请求一个微服务系统的API接口,这个API接口,需要调用多个微服务,调用每个微服务都会产生一个新的Span,所有由这个请求产生的Span组成了这个Trace。
- Annotation:用来及时记录一个事件的,一些核心注解用来定义一个请求的开始和结束 。这些注解包括以下:
- cs - Client Sent -客户端发送一个请求,这个注解描述了这个Span的开始
- sr - Server Received -服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳便可得到网络传输的时间。
- ss - Server Sent (服务端发送响应)–该注解表明请求处理的完成(当请求返回客户端),如果ss的时间戳减去sr时间戳,就可以得到服务器请求的时间。
- cr - Client Received (客户端接收响应)-此时Span的结束,如果cr的时间戳减去cs时间戳便可以得到整个请求所消耗的时间。
图7-1链路追踪术语
7.2 案例实战
\
本文主要讲述如何在Spring Cloud Sleuth中集成Zipkin。在Spring Cloud Sleuth中集成Zipkin非常的简单,只需要引入相应的依赖和做相关的配置即可。
7.2.1 Zipkin-Server
\
准备Zipkin-Server,步骤如下。
\
- 下载Zipkin-Server
\
下载地址:archiva-maven-storage-prod.oss-cn-beijing.aliyuncs.com/repository/…
- 启动Zipkin-Server
java -jar zipkin-server-2.23.2-exec.jar
7.2.2 Zipkin-Client
\
改造支付微服务项目,和订单微服务项目作为Zipkin客户端,需要将链路数据上传给Zipkin Server,具体步骤如下。
\
- 添加依赖
在支付为服务和订单微服务项目的pom.xml中添加依赖如下。
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-sleuth-zipkin</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
\
- 配置文件
\
在支付和订单项目的配置文件application.yml配置Spring Cloud Sleuth链路追踪,代码如下
spring:
application:
name: cloud-payment-service
zipkin:
base-url: http://192.168.220.12:9411
sender:
type: web
sleuth:
sampler:
probability: 1
\
- spring.zipkin.base-url:指定Zipkin的服务端,用于发送链路报告
- spirng.zipkin.sender.type:web表示使用http发送数据
- spring.sleuth.sampler.probability:采样率,值为[0,1]之间,这里表示100%采样报告
7.2.3 启动并测试
\
分别启动Zipkin-Server,Eureka,支付服务,订单服务,然后请求几次订单业务,这时链路报告会通过web方式发送给ZipkinServer,ZipkinServer手机的链路数据,如图7-2所示。
图7-2 链路追踪展示
\
\
7.2.4 使用RabbitMQ传输链路数据
\
在上述案例中最终收集的数据是通过HTTP上传给Zipkin-Server的,在Spring Cloud Sleuth中支持消息组件传世链路数据,本节使用RabbitMQ传输链路数据,步骤如下。
- 安装RabbitMQ
使用Docker安装RabbitMQ命令如下。
docker pull rabbitmq:management
docker run -d -p 5672:5672 -p 15672:15672 --name rabbitmq rabbitmq:management
\
- Zipkin-Server
启动Zipkin-Server时,指定从RabbitMQ获得链路消息数据。命令如下。
RABBIT_ADDRESSES=localhost java -jar zipkin-server-2.23.2-exec.jar
#或者下面命令
java -jar zipkin-server-2.23.2-exec.jar --zipkin.collector.rabbitmq.addresses=localhost
注意这里使用localhost,故此需要把 zipkin-server-2.23.2-exec.jar 上传到docker所在的虚拟机。
- Zipkin-Client
在支付微服务,和订单微服务中修改配置,将链路数据发送给RabbitMQ。配置如下。
spring:
zipkin:
rabbitmq:
addresses: 192.168.220.12:5672
# base-url: http://192.168.220.12:9411
sender:
type: rabbit
sleuth:
sampler:
probability: 1
\
因为发送链路数据的方式type=rabbit,故此需要配置spring.zipkin.rabbitmq,同时base-url就不需要了。
- 启动并测试
重启Zipkin-Server和Zipkin-Client,发现链路数据经由RabbitMQ发送给Zipkin-Server。
7.2.5 使用ElasticSearch存储链路数据
\
在上面案例中,Zipkin Server将链路数据存储在内存中,一旦程序重启,之前的链路数据全部丢失。,那么怎么江莲路数据存储起来呢?,Zipkin支持将链路数据存储在MySql、Elasticsearch,和Cassandra数据库中,本节讲解使用Elasticsearch存储。步骤如下。
- 安装Elasticsearch和Kibana
使用docker安装Elasticsearch和Kibana。命令如下。
\
docker pull elasticsearch:7.13.4
# 创建自定义的网络(用于连接到连接到同一网络的其他服务(例如Kibana))
docker network create somenetwork
#运行Elasticsearch
docker run -d --name elasticsearch --net somenetwork -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.13.4
docker pull kibana:7.3.4
# 运行 Kibana
docker run -d --name kibana --net somenetwork -p 5601:5601 kibana:7.13.4
\
- Zipkin-Server
启动Zipkin Server时,指定使用ES存储数据,命令如下
RABBIT_ADDRESSES=localhost STORAGE_TYPE=elasticsearch ES_HOSTS=http://localhost:9200 java -jar zipkin-server-2.23.2-exec.jar
#或者
java -jar zipkin-server-2.23.2-exec.jar --zipkin.collector.rabbitmq.addresses=localhost --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200
- 启动并测试
重启Zipkin-Server,可以看到链路追踪数据,已经存入Elasticsearch中,同时再次重启Zipkin-Server,数据依然存在。如图7-3所示。
图7-3 Elasticsearch中的链路数据