ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Spring Cloud构建微服务架构:分布式服务跟踪(整合logstash)【Dalston版】

2021-05-27 18:01:30  阅读:240  来源: 互联网

标签:trace Spring 分布式服务 Dalston 日志 logback logstash Cloud



通过之前的《入门示例》,我们已经为两个由SpringCloud构建的微服务项目 trace-1trace-2引入了Spring Cloud Sleuth的基础模块 spring-cloud-starter-sleuth,实现了为各微服务的日志信息中添加跟踪信息的功能。但是,由于日志文件都离散的存储在各个服务实例的文件系统之上,仅仅通过查看日志文件来分析我们的请求链路依然是一件相当麻烦的差事,所以我们还需要一些工具来帮助我们集中的收集、存储和搜索这些跟踪信息。引入基于日志的分析系统是一个不错的选择,比如:ELK平台,它可以轻松的帮助我们来收集和存储这些跟踪日志,同时在需要的时候我们也可以根据Trace ID来轻松地搜索出对应请求链路相关的明细日志。

图片

ELK平台主要有由ElasticSearch、Logstash和Kiabana三个开源免费工具组成:

  • Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

  • Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤,并将其存储供以后使用。

  • Kibana 也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。

Spring Cloud Sleuth在与ELK平台整合使用时,实际上我们只要实现与负责日志收集的Logstash完成数据对接即可,所以我们需要为Logstash准备json格式的日志输出。由于Spring Boot应用默认使用了logback来记录日志,而Logstash自身也有对logback日志工具的支持工具,所以我们可以直接通过在logback的配置中增加对logstash的appender,就能非常方便的将日志转换成以json的格式存储和输出了。

下面我们来详细介绍一下在快速入门示例的基础上,如何实现面向Logstash的日志输出配置:

  • 在 pom.xml依赖中引入 logstash-logback-encoder依赖,具体如下:

<dependency>  <groupId>net.logstash.logback</groupId>  <artifactId>logstash-logback-encoder</artifactId>  <version>4.6</version></dependency>
  • 在工程 /resource目录下创建 bootstrap.properties配置文件,将 spring.application.name=trace-1配置移动到该文件中去。由于 logback-spring.xml的加载在 application.properties之前,所以之前的配置 logback-spring.xml无法获取到 spring.application.name属性,因此这里将该属性移动到最先加载的 bootstrap.properties配置文件中。

  • 在工程 /resource目录下创建logback配置文件 logback-spring.xml,具体内容如下:

<?xml version="1.0" encoding="UTF-8"?><configuration>    <include resource="org/springframework/boot/logging/logback/defaults.xml"/>    <springProperty scope="context" name="springAppName" source="spring.application.name"/>    <!-- 日志在工程中的输出位置 -->    <property name="LOG_FILE" value="${BUILD_FOLDER:-build}/${springAppName}"/>    <!-- 控制台的日志输出样式 -->    <property name="CONSOLE_LOG_PATTERN"              value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr([${springAppName:-},%X{X-B3-TraceId:-},%X{X-B3-SpanId:-},%X{X-Span-Export:-}]){yellow} %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}"/>    <!-- 控制台Appender -->    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">                       <level>INFO</level>        </filter>         <encoder>            <pattern>${CONSOLE_LOG_PATTERN}</pattern>            <charset>utf8</charset>       </encoder>    </appender>    <!-- 为logstash输出的json格式的Appender -->    <appender name="logstash" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>${LOG_FILE}.json</file>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>${LOG_FILE}.json.%d{yyyy-MM-dd}.gz</fileNamePattern>            <maxHistory>7</maxHistory>        </rollingPolicy>        <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">            <providers>                <timestamp>                    <timeZone>UTC</timeZone>                </timestamp>                <pattern>                    <pattern>                        {                          "severity": "%level",                          "service": "${springAppName:-}",                          "trace": "%X{X-B3-TraceId:-}",                          "span": "%X{X-B3-SpanId:-}",                          "exportable": "%X{X-Span-Export:-}",                          "pid": "${PID:-}",                          "thread": "%thread",                          "class": "%logger{40}",                          "rest": "%message"                        }                    </pattern>                </pattern>            </providers>        </encoder>    </appender>    <root level="INFO">        <appender-ref ref="console"/>        <appender-ref ref="logstash"/>    </root></configuration>

对logstash支持主要通过名为 logstash的appender实现,内容并不复杂,主要是对日志信息的格式化处理,上面为了方便调试查看我们先将json日志输出到文件中。

完成上面的改造之后,我们再将快速入门的示例运行起来,并发起对 trace-1的接口访问。此时我们可以在 trace-1trace-2的工程目录下发现有一个 build目录,下面分别创建了以各自应用名称命名的json文件,该文件就是在 logback-spring.xml中配置的名为 logstash的appender输出的日志文件,其中记录了类似下面格式的json日志:

{"@timestamp":"2016-12-04T06:57:58.970+00:00","severity":"INFO","service":"trace-1","trace":"589ee5f7b860132f","span":"a9e891273affb7fc","exportable":"false","pid":"19756","thread":"http-nio-9101-exec-1","class":"c.d.TraceApplication$$EnhancerBySpringCGLIB$$a9604da6","rest":"===<call trace-1>==="}{"@timestamp":"2016-12-04T06:57:59.061+00:00","severity":"INFO","service":"trace-1","trace":"589ee5f7b860132f","span":"2df8511ddf3d79a2","exportable":"false","pid":"19756","thread":"http-nio-9101-exec-1","class":"o.s.c.a.AnnotationConfigApplicationContext","rest":"Refreshing org.springframework.context.annotation.AnnotationConfigApplicationContext@64951f38: startup date [Sun Dec 04 14:57:59 CST 2016]; parent: org.springframework.boot.context.embedded.AnnotationConfigEmbeddedWebApplicationContext@4b8c8f15"}

我们除了可以通过上面的方式生成json文件之外,也可以使用 LogstashTcpSocketAppender将日志内容直接通过Tcp Socket输出到logstash服务端,比如:

<appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">  <destination>127.0.0.1:9250</destination>  ...</appender>

完整示例:

读者可以根据喜好选择下面的两个仓库中查看 trace-1trace-2两个项目:

  • Github:https://github.com/dyc87112/SpringCloud-Learning/

  • Gitee:https://gitee.com/didispace/SpringCloud-Learning/

如果您对这些感兴趣,欢迎star、follow、收藏、转发给予支持!

本文内容部分节选自我的《Spring Cloud微服务实战》,但对依赖的Spring Boot和Spring Cloud版本做了升级。

更多内容,请点击《Spring Cloud微服务架构汇总

推荐阅读

Spring Cloud构建微服务架构:分布式服务跟踪(跟踪原理)

Spring Cloud构建微服务架构:分布式服务跟踪(入门)

Spring Cloud Gateway真的有那么差吗?

Netflix 的上线工具 Spinnaker

Dubbo将积极适配Spring Cloud生态

浅谈微服务基建的逻辑

Service Mesh:下一代微服务

微服务(Microservices)【翻译】

那些没说出口的研发之痛,做与不做微服务的几大理由



标签:trace,Spring,分布式服务,Dalston,日志,logback,logstash,Cloud
来源: https://blog.51cto.com/u_15127675/2823361

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有