Sleuth服务跟踪:整合 Logstash

402 阅读2分钟

假设前面的案例中,我们已经实现了服务调用之间的链路追踪,但是这些日志是分散在各个机器上的,就算出现问题了,我们想快速定位,也得从各个机器把日志整合起来,再去查问题。这个时候就需要引入日志分析系统了,比如ELK,可以将多台服务器上的日志信息统一收集起来,在出问题的时候我们可以轻松根据 traceId 来搜索出对应的请求链路信息。

一、ELK 简介

ELK 由三个组件组成:

  • Elasticsearch是个开源分布式搜索引擎,它的特点有分布式、零配置、自动发现、索引自动分片、索引副本机制、restful 风格接口、多数据源、自动搜索负载等。
  • Logstash 是一个完全开源的工具,它可以对日志进行收集、分析、并存储以供以后使用。
  • kibana 是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供日志分析友好的Web界面,可以汇总、分析和搜索重要数据日志。 ELK官网: www.elastic.co/cn/

二、输出 JSON 格式日志

可以通过 logback 来输出Json格式的日志,让 Logstash 收集存储到 Elasticsearch 中,然后在 kibana 中查看。想要输入Json格式的数据需要加一个依赖:

<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder </artifactId>
    <version>4.8</version>
    <scope>runtime</scope>
</dependency>

然后创建一个 logback-spring.xml 文件。配置 logstash 需要收集的数据格式如下:

<!-- Appender to log to file in a JSON format -->
<appender name= "logstash"
        class="ch.qos.logback.core.rolling.RollingFileAppender">
    <file>$ {LOG FILE}.json</file>
        <rollingPolicy
            class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
        <fileNamePattern>${LOG_FILE}.json.%d{yyyy-MM-dd}.gz</fileNamePattern>
        <maxHistory>7</maxHistory>
    </rollingPolicy>
    <encoder class = "net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
        <providers>
            <timestamp>
                <timeZone>UTC</timeZone>
            </timestamp>
            <pattern>
                <pattern>
                    {
                    "severity": "%level",
                    "service": "${spr ingAppName:-}",
                    "trace": "%X{X-B3-TraceId:-}",
                    "span": "%X{X-B3-SpanId:-}",
                    "parent": "%X{X-B3-ParentSpanId:-}",
                    "exportable": "%X{X-Span-Export:-}",
                    "pid": "${PID:-}",
                    "thread": "%thread",
                    "class": "%logger{40}",
                    "rest": "&message "
                    }
                </pattern>
            </pattern>
        </providers>
    </encoder>
</appender>

详细的配置信息可参考: https:/github.com/spring-clou… sleuth-documentation-apps/blob/master/service1/src/main/resources/ logback-spring.xml

集成好后就能在输出的日志目录中看到有一个以 .json 结尾的日志文件了,里面的数据格式是Json形式的,直接可以通过Logstash 进行收集。

{
    "timestamp": "2017-11-30T01 :48:32.221+00: 00",
    "severity" : "DEBUG" , 
    "service":" fsh-substitution",
    "trace": "41b5a575c26eeea1" ,
    "span": "41b5a575c2 6eeeal" ,
    "parent": "41b5a575c26eeea1",
    "exportable": " false",
    "pid": "12024",
    "thread": "hystrix-fsh-house- 10" ,
    "class": "c.f.a. client . fsh. house . HouseRemoteClient",
    "rest": "[HouseRemoteC1 ient#hosueInfo] <--- END HTTP ( 796-byte body ) "
}