chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

分布式鏈路跟蹤Sleuth與Zipkin

jf_ro2CN3Fa ? 來源:芋道源碼 ? 2023-01-13 10:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

  • Spring Cloud Sleuth
  • Zipkin
  • 快速上手
    • 方式一、HTTP
    • 方式二、消息總線 RabbitMQ

隨著業(yè)務發(fā)展,系統(tǒng)拆分導致系統(tǒng)調用鏈路愈發(fā)復雜一個前端請求可能最終需要調用很多次后端服務才能完成,當整個請求變慢或不可用時,我們是無法得知該請求是由某個或某些后端服務引起的,這時就需要解決如何快讀定位服務故障點,以對癥下藥。于是就有了分布式系統(tǒng)調用跟蹤的誕生。

現今業(yè)界分布式服務跟蹤的理論基礎主要來自于 Google 的一篇論文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,使用最為廣泛的開源實現是 Twitter 的 Zipkin,為了實現平臺無關、廠商無關的分布式服務跟蹤,CNCF 發(fā)布了布式服務跟蹤標準 Open Tracing。國內,淘寶的 “鷹眼”、京東的 “Hydra”、大眾點評的 “CAT”、新浪的 “Watchman”、唯品會的 “Microscope”、窩窩網的 “Tracing” 都是這樣的系統(tǒng)。

Dapper, a Large-Scale Distributed Systems Tracing Infrastructure:

https://research.google.com/pubs/pub36356.html

Spring Cloud Sleuth 也為我們提供了一套完整的解決方案。在本章中,我們將詳細介紹如何使用 Spring Cloud Sleuth + Zipkin 來為我們的微服務架構增加分布式服務跟蹤的能力。

Spring Cloud Sleuth

一般的,一個分布式服務跟蹤系統(tǒng)主要由三部分構成:

  • 數據收集
  • 數據存儲
  • 數據展示

根據系統(tǒng)大小不同,每一部分的結構又有一定變化。譬如,對于大規(guī)模分布式系統(tǒng),數據存儲可分為實時數據和全量數據兩部分,實時數據用于故障排查(Trouble Shooting),全量數據用于系統(tǒng)優(yōu)化;數據收集除了支持平臺無關和開發(fā)語言無關系統(tǒng)的數據收集,還包括異步數據收集(需要跟蹤隊列中的消息,保證調用的連貫性),以及確保更小的侵入性;數據展示又涉及到數據挖掘和分析。雖然每一部分都可能變得很復雜,但基本原理都類似。

2c6b6e30-92e3-11ed-bfe3-dac502259ad0.jpg

服務追蹤的追蹤單元是從客戶發(fā)起請求(request)抵達被追蹤系統(tǒng)的邊界開始,到被追蹤系統(tǒng)向客戶返回響應(response)為止的過程,稱為一個 trace 。每個 trace 中會調用若干個服務,為了記錄調用了哪些服務,以及每次調用的消耗時間等信息,在每次調用服務時,埋入一個調用記錄,稱為一個 span 。這樣,若干個有序的 span 就組成了一個 trace。在系統(tǒng)向外界提供服務的過程中,會不斷地有請求和響應發(fā)生,也就會不斷生成 trace,把這些帶有 span 的 trace 記錄下來,就可以描繪出一幅系統(tǒng)的服務拓撲圖。附帶上 span 中的響應時間,以及請求成功與否等信息,就可以在發(fā)生問題的時候,找到異常的服務;根據歷史數據,還可以從系統(tǒng)整體層面分析出哪里性能差,定位性能優(yōu)化的目標。

Spring Cloud Sleuth 為服務之間調用提供鏈路追蹤。通過 Sleuth 可以很清楚的了解到一個服務請求經過了哪些服務,每個服務處理花費了多長。從而讓我們可以很方便的理清各微服務間的調用關系。此外 Sleuth 可以幫助我們:

  • 耗時分析 :通過 Sleuth 可以很方便的了解到每個采樣請求的耗時,從而分析出哪些服務調用比較耗時;
  • 可視化錯誤 :對于程序未捕捉的異常,可以通過集成 Zipkin 服務界面上看到;
  • 鏈路優(yōu)化 :對于調用比較頻繁的服務,可以針對這些服務實施一些優(yōu)化措施。

Spring Cloud Sleuth 可以結合 Zipkin,將信息發(fā)送到 Zipkin,利用 Zipkin 的存儲來存儲信息,利用 Zipkin UI 來展示數據。

這是 Spring Cloud Sleuth 的概念圖:

2c9f7be4-92e3-11ed-bfe3-dac502259ad0.jpg

基于 Spring Boot + MyBatis Plus + Vue & Element 實現的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權限、多租戶、數據權限、工作流、三方登錄、支付、短信、商城等功能

  • 項目地址:https://github.com/YunaiV/ruoyi-vue-pro
  • 視頻教程:https://doc.iocoder.cn/video/

Zipkin

Zipkin 是 Twitter 的一個開源項目,它基于 Google Dapper 實現,它致力于收集服務的定時數據,以解決微服務架構中的延遲問題,包括數據的收集、存儲、查找和展現。我們可以使用它來收集各個服務器上請求鏈路的跟蹤數據,并通過它提供的 REST API 接口來輔助我們查詢跟蹤數據以實現對分布式系統(tǒng)的監(jiān)控程序,從而及時地發(fā)現系統(tǒng)中出現的延遲升高問題并找出系統(tǒng)性能瓶頸的根源。除了面向開發(fā)的 API 接口之外,它也提供了方便的 UI 組件來幫助我們直觀的搜索跟蹤信息和分析請求鏈路明細,比如:可以查詢某段時間內各用戶請求的處理時間等。

Zipkin 提供了可插拔數據存儲方式:In-Memory、MySQL、Cassandra 以及 Elasticsearch。接下來的測試為方便直接采用 In-Memory 方式進行存儲,生產推薦 Elasticsearch。

2cc4c73c-92e3-11ed-bfe3-dac502259ad0.jpg

上圖展示了 Zipkin 的基礎架構,它主要由 4 個核心組件構成:

  • Collector :收集器組件,它主要用于處理從外部系統(tǒng)發(fā)送過來的跟蹤信息,將這些信息轉換為 Zipkin 內部處理的 Span 格式,以支持后續(xù)的存儲、分析、展示等功能。
  • Storage :存儲組件,它主要對處理收集器接收到的跟蹤信息,默認會將這些信息存儲在內存中,我們也可以修改此存儲策略,通過使用其他存儲組件將跟蹤信息存儲到數據庫中。
  • RESTful API :API 組件,它主要用來提供外部訪問接口。比如給客戶端展示跟蹤信息,或是外接系統(tǒng)訪問以實現監(jiān)控等。
  • Web UI :UI 組件,基于 API 組件實現的上層應用。通過 UI 組件用戶可以方便而有直觀地查詢和分析跟蹤信息。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 實現的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權限、多租戶、數據權限、工作流、三方登錄、支付、短信、商城等功能

  • 項目地址:https://github.com/YunaiV/yudao-cloud
  • 視頻教程:https://doc.iocoder.cn/video/

快速上手

Zipkin 分為兩端,一個是 Zipkin 服務端,一個是 Zipkin 客戶端,客戶端也就是微服務的應用。

客戶端會配置服務端的 URL 地址,一旦發(fā)生服務間的調用的時候,會被配置在微服務里面的 Sleuth 的監(jiān)聽器監(jiān)聽,并生成相應的 Trace 和 Span 信息發(fā)送給服務端。發(fā)送的方式主要有兩種,一種是 HTTP 報文的方式,還有一種是消息總線的方式如 RabbitMQ。

不論哪種方式,我們都需要:

  • 一個 Eureka 服務注冊中心,這里我們就用之前的eureka項目來當注冊中心。
  • 一個 Zipkin 服務端。
  • 兩個微服務應用,trace-a和trace-b,其中trace-a中有一個 REST 接口/trace-a,調用該接口后將觸發(fā)對trace-b應用的調用。

方式一、HTTP

在 Spring Cloud Sleuth 中對 Zipkin 的整合進行了自動化配置的封裝,所以我們可以很輕松的引入和使用它。

Zipkin 服務端

關于 Zipkin 的服務端,在使用 Spring Boot 2.x 版本后,官方就不推薦自行定制編譯了,反而是直接提供了編譯好的 jar 包來給我們使用,詳情請看 upgrade to Spring Boot 2.0 NoClassDefFoundError UndertowEmbeddedServletContainerFactory · Issue #1962 · openzipkin/zipkin · GitHub

并且以前的@EnableZipkinServer也已經被打上了@Deprecated

If you decide to make a custom server, you accept responsibility for troubleshooting your build or configuration problems, even if such problems are a reaction to a change made by the OpenZipkin maintainers. In other words, custom servers are possible, but not supported.

EnableZipkinServer.javagithub.com/openzipkin/zipkin/blob/master/zipkin-server/src/main/java/zipkin/server/EnableZipkinServer.java

簡而言之就是:私自改包,后果自負。

所以官方提供了一鍵腳本:

curl-sSLhttps://zipkin.io/quickstart.sh|bash-s
java-jarzipkin.jar

如果用 Docker 的話,直接

dockerrun-d-p9411:9411openzipkin/zipkin

任一方式啟動后,訪問 http://localhost:9411/zipkin/ 就能看到如下界面,嗯還有漢化看起來不錯。

2cd6d8a0-92e3-11ed-bfe3-dac502259ad0.jpg

至此服務端就 OK 了。

微服務應用

創(chuàng)建兩個基本的 Spring Boot 工程,名字分別為 trace-a 和 trace-b。

兩個工程的 pom.xml 均引入以下依賴坐標:

<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-webfluxartifactId>
dependency>
<dependency>
<groupId>org.springframework.cloudgroupId>
<artifactId>spring-cloud-starter-netflix-eureka-clientartifactId>
dependency>
<dependency>
<groupId>org.springframework.cloudgroupId>
<artifactId>spring-cloud-starter-sleuthartifactId>
dependency>
<dependency>
<groupId>org.springframework.cloudgroupId>
<artifactId>spring-cloud-starter-zipkinartifactId>
dependency>

兩者的配置文件也一樣(除了spring. application.name和server.port,自行修改)

spring:
application:
name:trace-a
sleuth:
web:
client:
enabled:true
sampler:
probability:1.0#將采樣比例設置為1.0,也就是全部都需要。默認是0.1
zipkin:
base-url:http://localhost:9411/#指定了Zipkin服務器的地址
server:
port:8080
eureka:
client:
service-url:
defaultZone:http://localhost:7000/eureka/

Spring Cloud Sleuth 有一個 Sampler 策略,可以通過這個實現類來控制采樣算法。采樣器不會阻礙 span 相關 id 的產生,但是會對導出以及附加事件標簽的相關操作造成影響。Sleuth 默認采樣算法的實現是 Reservoir sampling,具體的實現類是 PercentageBasedSampler,默認的采樣比例為: 0.1(即 10%)。不過我們可以通過 spring.sleuth.sampler.percentage 來設置,所設置的值介于 0.0 到 1.0 之間,1.0 則表示全部采集。

trace-a 工程的啟動類如下:

@RestController
@SpringBootApplication
publicclassApplication{

publicstaticvoidmain(String[]args){
SpringApplication.run(Application.class,args);
}

@Autowired
privateLoadBalancerExchangeFilterFunctionlbFunction;

@Bean
publicWebClientwebClient(){
returnWebClient.builder().baseUrl("http://trace-b")
.filter(lbFunction)
.build();
}

@GetMapping("/trace-a")
publicMonotrace(){
System.out.println("===calltrace-a===");

returnwebClient().get()
.uri("/trace-b")
.retrieve()
.bodyToMono(String.class);
}

}

trace-b 工程的啟動類如下:

@RestController
@SpringBootApplication
publicclassApplication{

publicstaticvoidmain(String[]args){
SpringApplication.run(Application.class,args);
}

@GetMapping("/trace-b")
publicMonotrace(){
System.out.println("===calltrace-b===");

returnMono.just("Trace");
}

}

至此,一切就緒。Spring 應用在監(jiān)測到 classpath 中有 Sleuth 和 Zipkin 后,會自動在 WebClient(或 RestTemplate)的調用過程中向 HTTP 請求注入追蹤信息,并向 Zipkin Server 發(fā)送這些信息。

進行驗證

我們分別啟動 eureka、zipkin、trace-b、trace-a,然后訪問 http://localhost:8080/trace-a 可以得到返回值 Trace,同時還能在它們的控制臺中分別獲得下面的輸出:

--trace-a
===calltrace-a===
2018-04-2320:20:42.016INFO[trace-a,,,]71722---[ender@761e788f}]s.c.a.AnnotationConfigApplicationContext:RefreshingSpringClientFactory-localhost:startupdate[MonApr2320:20:42CST2018];parent:org.springframework.boot.web.reactive.context.AnnotationConfigReactiveWebServerApplicationContext@41ab013
2018-04-2320:20:42.103INFO[trace-a,,,]71722---[ender@761e788f}]f.a.AutowiredAnnotationBeanPostProcessor:JSR-330'javax.inject.Inject'annotationfoundandsupportedforautowiring
2018-04-2320:20:42.421INFO[trace-a,,,]71722---[ender@761e788f}]c.netflix.config.ChainedDynamicProperty:Flippingproperty:localhost.ribbon.ActiveConnectionsLimittouseNEXTproperty:niws.loadbalancer.availabilityFilteringRule.activeConnectionsLimit=2147483647
2018-04-2320:20:42.441INFO[trace-a,,,]71722---[ender@761e788f}]c.n.u.concurrent.ShutdownEnabledTimer:Shutdownhookinstalledfor:NFLoadBalancer-PingTimer-localhost
2018-04-2320:20:42.476INFO[trace-a,,,]71722---[ender@761e788f}]c.netflix.loadbalancer.BaseLoadBalancer:Client:localhostinstantiatedaLoadBalancer:DynamicServerListLoadBalancer:{NFLoadBalancer:name=localhost,currentlistofServers=[],Loadbalancerstats=Zonestats:{},Serverstats:[]}ServerList:null
2018-04-2320:20:42.485INFO[trace-a,,,]71722---[ender@761e788f}]c.n.l.DynamicServerListLoadBalancer:UsingserverListUpdaterPollingServerListUpdater
2018-04-2320:20:42.492INFO[trace-a,,,]71722---[ender@761e788f}]c.n.l.DynamicServerListLoadBalancer:DynamicServerListLoadBalancerforclientlocalhostinitialized:DynamicServerListLoadBalancer:{NFLoadBalancer:name=localhost,currentlistofServers=[],Loadbalancerstats=Zonestats:{},Serverstats:[]}ServerList:org.springframework.cloud.netflix.ribbon.eureka.DomainExtractingServerList@516a7895
2018-04-2320:20:42.548INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]s.c.a.AnnotationConfigApplicationContext:RefreshingSpringClientFactory-trace-b:startupdate[MonApr2320:20:42CST2018];parent:org.springframework.boot.web.reactive.context.AnnotationConfigReactiveWebServerApplicationContext@41ab013
2018-04-2320:20:42.617INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]f.a.AutowiredAnnotationBeanPostProcessor:JSR-330'javax.inject.Inject'annotationfoundandsupportedforautowiring
2018-04-2320:20:42.855INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]c.netflix.config.ChainedDynamicProperty:Flippingproperty:trace-b.ribbon.ActiveConnectionsLimittouseNEXTproperty:niws.loadbalancer.availabilityFilteringRule.activeConnectionsLimit=2147483647
2018-04-2320:20:42.868INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]c.n.u.concurrent.ShutdownEnabledTimer:Shutdownhookinstalledfor:NFLoadBalancer-PingTimer-trace-b
2018-04-2320:20:42.869INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]c.netflix.loadbalancer.BaseLoadBalancer:Client:trace-binstantiatedaLoadBalancer:DynamicServerListLoadBalancer:{NFLoadBalancer:name=trace-b,currentlistofServers=[],Loadbalancerstats=Zonestats:{},Serverstats:[]}ServerList:null
2018-04-2320:20:42.870INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]c.n.l.DynamicServerListLoadBalancer:UsingserverListUpdaterPollingServerListUpdater
2018-04-2320:20:42.905INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]c.netflix.config.ChainedDynamicProperty:Flippingproperty:trace-b.ribbon.ActiveConnectionsLimittouseNEXTproperty:niws.loadbalancer.availabilityFilteringRule.activeConnectionsLimit=2147483647
2018-04-2320:20:42.907INFO[trace-a,d28b72b2317c023f,d28b72b2317c023f,true]71722---[ctor-http-nio-2]c.n.l.DynamicServerListLoadBalancer:DynamicServerListLoadBalancerforclienttrace-binitialized:DynamicServerListLoadBalancer:{NFLoadBalancer:name=trace-b,currentlistofServers=[172.16.106.93:8081],Loadbalancerstats=Zonestats:{defaultzone=[Zone:defaultzone;Instancecount:1;Activeconnectionscount:0;Circuitbreakertrippedcount:0;Activeconnectionsperserver:0.0;]
},Serverstats:[[Server:172.16.106.93:8081;Zone:defaultZone;TotalRequests:0;Successiveconnectionfailure:0;Totalblackoutseconds:0;Lastconnectionmade:ThuJan0108:00:00CST1970;Firstconnectionmade:ThuJan0108:00:00CST1970;ActiveConnections:0;totalfailurecountinlast(1000)msecs:0;averageresptime:0.0;90percentileresptime:0.0;95percentileresptime:0.0;minresptime:0.0;maxresptime:0.0;stddevresptime:0.0]
]}ServerList:org.springframework.cloud.netflix.ribbon.eureka.DomainExtractingServerList@31f05c5
2018-04-2320:20:43.878INFO[trace-a,,,]71722---[erListUpdater-1]c.netflix.config.ChainedDynamicProperty:Flippingproperty:trace-b.ribbon.ActiveConnectionsLimittouseNEXTproperty:niws.loadbalancer.availabilityFilteringRule.activeConnectionsLimit=2147483647


--trace-b
===calltrace-b===
2018-04-2320:20:43.944INFO[trace-b,,,]71662---[ender@22a10ac6}]s.c.a.AnnotationConfigApplicationContext:RefreshingSpringClientFactory-localhost:startupdate[MonApr2320:20:43CST2018];parent:org.springframework.boot.web.reactive.context.AnnotationConfigReactiveWebServerApplicationContext@49c6c24f
2018-04-2320:20:44.124INFO[trace-b,,,]71662---[ender@22a10ac6}]f.a.AutowiredAnnotationBeanPostProcessor:JSR-330'javax.inject.Inject'annotationfoundandsupportedforautowiring
2018-04-2320:20:44.524INFO[trace-b,,,]71662---[ender@22a10ac6}]c.netflix.config.ChainedDynamicProperty:Flippingproperty:localhost.ribbon.ActiveConnectionsLimittouseNEXTproperty:niws.loadbalancer.availabilityFilteringRule.activeConnectionsLimit=2147483647
2018-04-2320:20:44.550INFO[trace-b,,,]71662---[ender@22a10ac6}]c.n.u.concurrent.ShutdownEnabledTimer:Shutdownhookinstalledfor:NFLoadBalancer-PingTimer-localhost
2018-04-2320:20:44.600INFO[trace-b,,,]71662---[ender@22a10ac6}]c.netflix.loadbalancer.BaseLoadBalancer:Client:localhostinstantiatedaLoadBalancer:DynamicServerListLoadBalancer:{NFLoadBalancer:name=localhost,currentlistofServers=[],Loadbalancerstats=Zonestats:{},Serverstats:[]}ServerList:null
2018-04-2320:20:44.610INFO[trace-b,,,]71662---[ender@22a10ac6}]c.n.l.DynamicServerListLoadBalancer:UsingserverListUpdaterPollingServerListUpdater
2018-04-2320:20:44.617INFO[trace-b,,,]71662---[ender@22a10ac6}]c.n.l.DynamicServerListLoadBalancer:DynamicServerListLoadBalancerforclientlocalhostinitialized:DynamicServerListLoadBalancer:{NFLoadBalancer:name=localhost,currentlistofServers=[],Loadbalancerstats=Zonestats:{},Serverstats:[]}ServerList:org.springframework.cloud.netflix.ribbon.eureka.DomainExtractingServerList@1e1794d0

訪問 http://localhost:9411/zipkin

點擊 Find Traces 會看到有一條記錄:

2ce66284-92e3-11ed-bfe3-dac502259ad0.jpg

點擊記錄進去頁面,可以看到每一個服務所耗費的時間和順序:

2cf41924-92e3-11ed-bfe3-dac502259ad0.jpg

點擊依賴分析,可以看到項目之間的調用關系:

2d0a86aa-92e3-11ed-bfe3-dac502259ad0.jpg

方式二、消息總線 RabbitMQ

因為之前說的 Zipkin 不再推薦我們來自定義 Server 端了,所以在最新版本的 Spring Cloud 依賴管理里已經找不到 zipkin-server 了。

那么如果直接用官方提供的 jar 包怎么從 RabbitMQ 中獲取 trace 信息呢?

我們可以通過環(huán)境變量讓 Zipkin 從 RabbitMQ 中讀取信息,就像這樣:

RABBIT_ADDRESSES=localhostjava-jarzipkin.jar

可配置的環(huán)境變量如下表所示:

屬性 環(huán)境變量 描述
zipkin.collector.rabbitmq.concurrency RABBIT_CONCURRENCY 并發(fā)消費者數量,默認為1
zipkin.collector.rabbitmq.connection-timeout RABBIT_CONNECTION_TIMEOUT 建立連接時的超時時間,默認為 60000毫秒,即 1 分鐘
zipkin.collector.rabbitmq.queue RABBIT_QUEUE 從中獲取 span 信息的隊列,默認為 zipkin
zipkin.collector.rabbitmq.uri RABBIT_URI 符合RabbitMQ URI 規(guī)范 的 URI,例如amqp://user:pass@host:10000/vhost

如果設置了 URI,則以下屬性將被忽略。

屬性 環(huán)境變量 描述
zipkin.collector.rabbitmq.addresses RABBIT_ADDRESSES 用逗號分隔的 RabbitMQ 地址列表,例如localhost:5672,localhost:5673
zipkin.collector.rabbitmq.password RABBIT_PASSWORD 連接到 RabbitMQ 時使用的密碼,默認為 guest
zipkin.collector.rabbitmq.username RABBIT_USER 連接到 RabbitMQ 時使用的用戶名,默認為guest
zipkin.collector.rabbitmq.virtual-host RABBIT_VIRTUAL_HOST 使用的 RabbitMQ virtual host,默認為 /
zipkin.collector.rabbitmq.use-ssl RABBIT_USE_SSL 設置為true則用 SSL 的方式與 RabbitMQ 建立鏈接

關于 Zipkin 的 Client 端,也就是微服務應用,我們就在之前 trace-a、trace-b 的基礎上修改,只要在他們的依賴里都引入 spring-cloud-stream-binder-rabbit 就好了,別的不用改。


org.springframework.cloud
spring-cloud-stream-binder-rabbit

不過為了說明是通過 RabbitMQ 傳輸的信息,我將 spring.zipkin.base-url 均改為http://localhost:9412/,即指向一個錯誤的地址。

分別重啟 trace-a、trace-b 工程,并啟動 Zipkin Server

RABBIT_ADDRESSES=localhostjava-jarzipkin.jar

然后訪問 http://localhost:8080/trace-a 并刷新 Zipkin UI,看到如下內容,就說明 Sleuth+Zipkin+RabbitMQ 整合成功了。

2d19db00-92e3-11ed-bfe3-dac502259ad0.jpg

此時看 RabbitMQ Admin,會看到多了一個名為 zipkin 的 Queue

2d25b18c-92e3-11ed-bfe3-dac502259ad0.jpg

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 分布式
    +關注

    關注

    1

    文章

    1061

    瀏覽量

    76397
  • spring
    +關注

    關注

    0

    文章

    341

    瀏覽量

    15762

原文標題:分布式鏈路跟蹤 Sleuth 與 Zipkin

文章出處:【微信號:芋道源碼,微信公眾號:芋道源碼】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何解決分布式光伏計量難題?

    分布式光伏成增長主力 據《2025-2030年中國分布式光伏行業(yè)市場前景預測及未來發(fā)展趨勢研究報告》顯示,2024年中國分布式光伏新增裝機118.18GW,同比增長23%,占光伏新增裝機總量的43
    的頭像 發(fā)表于 11-07 14:55 ?144次閱讀
    如何解決<b class='flag-5'>分布式</b>光伏計量難題?

    分布式光伏環(huán)境監(jiān)測站的技術架構與應用實踐

    分布式光伏環(huán)境監(jiān)測站的技術架構與應用實踐 柏峰【BF-GFQX】一、系統(tǒng)技術架構解析 分布式光伏環(huán)境監(jiān)測站采用“感知層-傳輸層-應用層”三層架構設計,實現環(huán)境數據的全智能化處理。
    的頭像 發(fā)表于 10-13 10:05 ?228次閱讀
    <b class='flag-5'>分布式</b>光伏環(huán)境監(jiān)測站的技術架構與應用實踐

    【節(jié)能學院】Acrel-1000DP分布式光伏監(jiān)控系統(tǒng)在奉賢平高食品 4.4MW 分布式光伏中應用

    摘要:在“雙碳”和新型電力系統(tǒng)建設背景下,分布式光伏接入比例不斷提高,對配電網電壓、調度運行及調峰等環(huán)節(jié)造成強烈沖擊。本文設計包含平臺層、設備層二層架構體系的分布式光伏管控平臺,以及小容量工商業(yè)
    的頭像 發(fā)表于 08-23 08:04 ?3292次閱讀
    【節(jié)能學院】Acrel-1000DP<b class='flag-5'>分布式</b>光伏監(jiān)控系統(tǒng)在奉賢平高食品 4.4MW <b class='flag-5'>分布式</b>光伏中應用

    分布式光伏發(fā)電監(jiān)測系統(tǒng)技術方案

    分布式光伏發(fā)電監(jiān)測系統(tǒng)技術方案 柏峰【BF-GFQX】一、系統(tǒng)目標 :分布式光伏發(fā)電監(jiān)測系統(tǒng)旨在通過智能化的監(jiān)測手段,實現對分布式光伏電站的全方位、高精度、實時化管理。該系統(tǒng)能
    的頭像 發(fā)表于 08-22 10:51 ?2870次閱讀
    <b class='flag-5'>分布式</b>光伏發(fā)電監(jiān)測系統(tǒng)技術方案

    怎樣確定分布式光伏集群通信網絡的負載均衡策略?

    ,具體步驟如下: 1. 明確負載均衡目標 根據分布式光伏集群的核心需求,定義負載均衡的關鍵目標,例如: 避免單點(如匯聚節(jié)點、通信網關)過載,確保數據傳輸延遲≤100ms; 均衡各通信的帶寬占用率(目標:單
    的頭像 發(fā)表于 08-22 10:10 ?379次閱讀
    怎樣確定<b class='flag-5'>分布式</b>光伏集群通信網絡的負載均衡策略?

    雙電機分布式驅動汽車高速穩(wěn)定性機電耦合控制

    摘要:為了利用所設計的雙電機防滑差速驅動系統(tǒng)來提高分布式驅動汽車的動力學性能,在前期同軸耦合驅動控制理論研究的基礎上,開展該車的高速穩(wěn)定性機電耦合控制研究。建立并驗證包含所設計驅動系統(tǒng)在內的分布式
    發(fā)表于 06-18 16:37

    曙光存儲領跑中國分布式存儲市場

    近日,賽迪顧問發(fā)布《中國分布式存儲市場研究報告(2025)》,指出2024 年中國分布式存儲市場首次超過集中式存儲,規(guī)模達 198.2 億元,增速 43.7%。
    的頭像 發(fā)表于 05-19 16:50 ?990次閱讀

    OLI-P——分布式偏振串擾測量利器

    在保偏光纖系統(tǒng)中,偏振串擾是導致性能劣化的核心因素之一。傳統(tǒng)偏振檢測手段僅能獲得整體消光比,而分布式偏振串擾測量通過連續(xù)、高精度地捕捉整條光纖
    的頭像 發(fā)表于 05-15 17:37 ?436次閱讀
    OLI-P——<b class='flag-5'>分布式</b>偏振串擾測量利器

    分布式光伏電力問題層出不窮?安科瑞分布式光伏運維系統(tǒng)來“救場”

    一、分布式光伏電力運維,痛點大揭秘? ? 分布式光伏作為實現綠色能源轉型的關鍵一環(huán),近年來在我國得到了迅猛發(fā)展。國家能源局數據顯示,截至 2023 年底,中國分布式光伏電站累計并網容量約為 2.5
    的頭像 發(fā)表于 05-07 17:14 ?654次閱讀
    <b class='flag-5'>分布式</b>光伏電力問題層出不窮?安科瑞<b class='flag-5'>分布式</b>光伏運維系統(tǒng)來“救場”

    分布式光伏發(fā)運維系統(tǒng)實際應用案例分享

    安科瑞劉鴻鵬 摘?要 分布式光伏發(fā)電系統(tǒng)其核心特點是發(fā)電設備靠近用電負荷中心,通常安裝在屋頂、建筑立面或閑置空地上,截至2025年,分布式光伏發(fā)電系統(tǒng)在全球和中國范圍內取得了顯著發(fā)展,成為能源轉型
    的頭像 發(fā)表于 04-09 14:46 ?964次閱讀
    <b class='flag-5'>分布式</b>光伏發(fā)運維系統(tǒng)實際應用案例分享

    分布式光伏如何實現防逆流?

    分布式光伏如何實現防逆流
    的頭像 發(fā)表于 03-24 13:31 ?584次閱讀
    <b class='flag-5'>分布式</b>光伏如何實現防逆流?

    分布式云化數據庫有哪些類型

    分布式云化數據庫有哪些類型?分布式云化數據庫主要類型包括:關系型分布式數據庫、非關系型分布式數據庫、新SQL分布式數據庫、以列方式存儲數據、
    的頭像 發(fā)表于 01-15 09:43 ?850次閱讀

    基于ptp的分布式系統(tǒng)設計

    在現代分布式系統(tǒng)中,精確的時間同步對于確保數據一致性、系統(tǒng)穩(wěn)定性和性能至關重要。PTP(Precision Time Protocol)是一種網絡協議,用于在分布式系統(tǒng)中實現高精度的時間同步
    的頭像 發(fā)表于 12-29 10:09 ?951次閱讀

    HarmonyOS Next 應用元服務開發(fā)-分布式數據對象遷移數據文件資產遷移

    使用分布式數據對象遷移數據,當需要遷移的數據較大(100KB以上)或需要遷移文件時,可以使用分布式數據對象。原理與接口說明詳見分布式數據對象跨設備數據同步。 說明:自API 12起,由于直接使用跨
    發(fā)表于 12-24 10:11

    HarmonyOS Next 應用元服務開發(fā)-分布式數據對象遷移數據權限與基礎數據

    使用分布式數據對象遷移數據,當需要遷移的數據較大(100KB以上)或需要遷移文件時,可以使用分布式數據對象。原理與接口說明詳見分布式數據對象跨設備數據同步。 說明:自API 12起,由于直接使用跨
    發(fā)表于 12-24 09:40