第七章 Spring Cloud Sleuth链路追踪

725 阅读6分钟

7.1 链路追踪简介

7.1.1 为什么需要链路追踪

\

微服务架构是一个分布式架构,它按业务划分服务单元,一个分布式系统往往有很多个服务单元。由于服务单元数量众多,业务的复杂性,如果出现了错误和异常,很难去定位。主要体现在,一个请求可能需要调用很多个服务,而内部服务的调用复杂性,决定了问题难以定位。所以微服务架构中,必须实现分布式链路追踪,去跟进一个请求到底有哪些服务参与,参与的顺序又是怎样的,从而达到每个请求的步骤清晰可见,出了问题,很快定位。

举个例子,在微服务系统中,一个来自用户的请求,请求先达到前端A(如前端界面),然后通过远程调用,达到系统的中间件B、C(如负载均衡、网关等),最后达到后端服务D、E,后端经过一系列的业务逻辑计算最后将数据返回给用户。对于这样一个请求,经历了这么多个服务,怎么样将它的请求过程的数据记录下来呢?这就需要用到服务链路追踪。

Google开源的 Dapper链路追踪组件,并在2010年发表了论文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,这篇文章是业内实现链路追踪的标杆和理论基础,具有非常大的参考价值。
目前,链路追踪组件有Google的Dapper,Twitter 的Zipkin,以及阿里的Eagleeye (鹰眼)等,它们都是非常优秀的链路追踪开源组件。

7.1.2 基本术语

Spring Cloud Sleuth采用的是Google的开源项目Dapper的专业术语。如图7-1所示

  • Span:基本工作单元,发送一个远程调度任务 就会产生一个Span,Span是一个64位ID唯一标识的,Trace是用另一个64位ID唯一标识的,Span还有其他数据信息,比如摘要、时间戳事件、Span的ID、以及进度ID。
  • Trace:一系列Span组成的一个树状结构。请求一个微服务系统的API接口,这个API接口,需要调用多个微服务,调用每个微服务都会产生一个新的Span,所有由这个请求产生的Span组成了这个Trace。
  • Annotation:用来及时记录一个事件的,一些核心注解用来定义一个请求的开始和结束 。这些注解包括以下:
  • cs - Client Sent -客户端发送一个请求,这个注解描述了这个Span的开始
  • sr - Server Received -服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳便可得到网络传输的时间。
  • ss - Server Sent (服务端发送响应)–该注解表明请求处理的完成(当请求返回客户端),如果ss的时间戳减去sr时间戳,就可以得到服务器请求的时间。
  • cr - Client Received (客户端接收响应)-此时Span的结束,如果cr的时间戳减去cs时间戳便可以得到整个请求所消耗的时间。

图7-1链路追踪术语

7.2 案例实战

\

本文主要讲述如何在Spring Cloud Sleuth中集成Zipkin。在Spring Cloud Sleuth中集成Zipkin非常的简单,只需要引入相应的依赖和做相关的配置即可。

7.2.1 Zipkin-Server

\

准备Zipkin-Server,步骤如下。

\

  1. 下载Zipkin-Server

\

下载地址:archiva-maven-storage-prod.oss-cn-beijing.aliyuncs.com/repository/…

  1. 启动Zipkin-Server

java -jar zipkin-server-2.23.2-exec.jar

7.2.2 Zipkin-Client

\

改造支付微服务项目,和订单微服务项目作为Zipkin客户端,需要将链路数据上传给Zipkin Server,具体步骤如下。

\

  1. 添加依赖

在支付为服务和订单微服务项目的pom.xml中添加依赖如下。

        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-sleuth-zipkin</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-sleuth</artifactId>
        </dependency>

\

  1. 配置文件

\

在支付和订单项目的配置文件application.yml配置Spring Cloud Sleuth链路追踪,代码如下

spring:
  application:
    name: cloud-payment-service
  zipkin:
    base-url: http://192.168.220.12:9411
    sender:
      type: web
  sleuth:
    sampler:
      probability: 1

\

  • spring.zipkin.base-url:指定Zipkin的服务端,用于发送链路报告
  • spirng.zipkin.sender.type:web表示使用http发送数据
  • spring.sleuth.sampler.probability:采样率,值为[0,1]之间,这里表示100%采样报告

7.2.3 启动并测试

\

分别启动Zipkin-Server,Eureka,支付服务,订单服务,然后请求几次订单业务,这时链路报告会通过web方式发送给ZipkinServer,ZipkinServer手机的链路数据,如图7-2所示。

图7-2 链路追踪展示

\

\

7.2.4 使用RabbitMQ传输链路数据

\

在上述案例中最终收集的数据是通过HTTP上传给Zipkin-Server的,在Spring Cloud Sleuth中支持消息组件传世链路数据,本节使用RabbitMQ传输链路数据,步骤如下。

  1. 安装RabbitMQ

使用Docker安装RabbitMQ命令如下。

docker pull rabbitmq:management

docker run -d -p 5672:5672 -p 15672:15672 --name rabbitmq rabbitmq:management

\

  1. Zipkin-Server

启动Zipkin-Server时,指定从RabbitMQ获得链路消息数据。命令如下。

RABBIT_ADDRESSES=localhost java -jar zipkin-server-2.23.2-exec.jar 

#或者下面命令
java -jar zipkin-server-2.23.2-exec.jar --zipkin.collector.rabbitmq.addresses=localhost

注意这里使用localhost,故此需要把 zipkin-server-2.23.2-exec.jar 上传到docker所在的虚拟机。

  1. Zipkin-Client

在支付微服务,和订单微服务中修改配置,将链路数据发送给RabbitMQ。配置如下。

spring:
  zipkin:
    rabbitmq:
      addresses: 192.168.220.12:5672
#    base-url: http://192.168.220.12:9411
    sender:
      type: rabbit
  sleuth:
    sampler:
      probability: 1

\

因为发送链路数据的方式type=rabbit,故此需要配置spring.zipkin.rabbitmq,同时base-url就不需要了。

  1. 启动并测试

重启Zipkin-Server和Zipkin-Client,发现链路数据经由RabbitMQ发送给Zipkin-Server。

7.2.5 使用ElasticSearch存储链路数据

\

在上面案例中,Zipkin Server将链路数据存储在内存中,一旦程序重启,之前的链路数据全部丢失。,那么怎么江莲路数据存储起来呢?,Zipkin支持将链路数据存储在MySql、Elasticsearch,和Cassandra数据库中,本节讲解使用Elasticsearch存储。步骤如下。

  1. 安装Elasticsearch和Kibana

使用docker安装Elasticsearch和Kibana。命令如下。

\

docker pull elasticsearch:7.13.4

# 创建自定义的网络(用于连接到连接到同一网络的其他服务(例如Kibana))
docker network create somenetwork 

#运行Elasticsearch
docker run -d --name elasticsearch --net somenetwork -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.13.4
    
docker pull kibana:7.3.4
# 运行 Kibana
docker run -d --name kibana --net somenetwork -p 5601:5601 kibana:7.13.4

\

  1. Zipkin-Server

启动Zipkin Server时,指定使用ES存储数据,命令如下

RABBIT_ADDRESSES=localhost STORAGE_TYPE=elasticsearch ES_HOSTS=http://localhost:9200 java -jar zipkin-server-2.23.2-exec.jar 

#或者
java -jar zipkin-server-2.23.2-exec.jar --zipkin.collector.rabbitmq.addresses=localhost  --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200
  1. 启动并测试

重启Zipkin-Server,可以看到链路追踪数据,已经存入Elasticsearch中,同时再次重启Zipkin-Server,数据依然存在。如图7-3所示。

图7-3 Elasticsearch中的链路数据