符合中小企业对网站设计、功能常规化式的企业展示型网站建设
本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...
商城网站建设因基本功能的需求不同费用上面也有很大的差别...
手机微信网站开发、微信官网、微信商城网站...
本篇文章为大家展示了 Sleuth与ELK怎样进行配合使用,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
创新互联于2013年创立,先为龙圩等服务建站,龙圩等地企业,进行企业商务咨询服务。为龙圩企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。
我们已经实现了服务调用之间的链路追踪,但是这些日志是分散在各个机器上的,就算出现问题了,我们想快速定位,也得从各个机器把日志整合起来,再去查问题。
这个时候就需要引入日志分析系统了,比如 ELK,可以将多台服务器上的日志信息统一收集起来,在出问题的时候我们可以轻松根据 traceId 来搜索出对应的请求链路信息。
ELK 由三个组件组成:
Elasticsearch 是个开源分布式搜索引擎,它的特点有分布式、零配置、自动发现、索引自动分片、索引副本机制、restful 风格接口、多数据源、自动搜索负载等。
Logstash 是一个完全开源的工具,它可以对日志进行收集、分析并存储以供以后使用。
kibana 是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供日志分析友好的 Web 界面,可以汇总、分析和搜索重要数据日志。
可以通过 logback 来输出 Json 格式的日志,让 Logstash 收集存储到 Elasticsearch 中,然后在 kibana 中查看。想要输入 Json 格式的数据需要加一个依赖,具体代码如下所示。
net.logstash.logback logstash-logback-encoder 5.2
然后创建一个 logback-spring.xml 文件。配置 logstash 需要收集的数据格式如下:
${LOG_FILE}.json ${LOG_FILE}.json.%d{yyyy-MM-dd}.gz 7 UTC { "severity": "%level", "service": "${springAppName:-}", "trace": "%X{X-B3-TraceId:-}", "span": "%X{X-B3-SpanId:-}", "parent": "%X{X-B3-ParentSpanId:-}", "exportable": "%X{X-Span-Export:-}", "pid": "${PID:-}", "thread": "%thread", "class": "%logger{40}", "rest": "%message" }
集成好后就能在输出的日志目录中看到有一个以“.json”结尾的日志文件了,里面的数据格式是 Json 形式的,可以直接通过 Logstash 进行收集。
{"@timestamp": "2019-11-30T01:48:32.221+00:00","severity": "DEBUG","service": "fsh-substitution","trace": "41b5a575c26eeea1","span": "41b5a575c26eeea1","parent": "41b5a575c26eeea1","exportable": "false","pid": "12024","thread": "hystrix-fsh-house-10","class": "c.f.a.client.fsh.house.HouseRemoteClient","rest": "[HouseRemoteClient#hosueInfo] <--- END HTTP (796-byte body)"}
日志收集存入 ElasticSearch 之后,就可以用 Kibana 进行展示。需要排查某个请求的问题时,直接根据 traceid 搜索,就可以把整个请求链路相关的日志信息查询出来。
上述内容就是 Sleuth与ELK怎样进行配合使用,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。