关于前端:链路追踪Tracing的前世今生上

55次阅读

共计 6311 个字符,预计需要花费 16 分钟才能阅读完成。

点击一键订阅《云荐大咖》专栏,获取官网举荐精品内容,学技术不迷路!

带着疑难看历史

提起链路追踪,大部分人都会想起 Zipkin、Jaeger、Skywalking 这些曾经比拟成熟的链路追踪开源软件以及 Opentelemetry、OpenTracing、OpenCensus 这些开源规范。尽管实现各有差别,然而应用各种软件、规范和实现组合搭建进去的不同的链路追踪零碎,却有着许多相相似的中央。

例如这些链路追踪零碎都须要在调用链路上流传元数据。他们对元数据内容的定义也大同小异,链路惟一的 trace id, 关联父链路的 parent id,标识本身的 span id 这些。他们都是异步扩散上报采集的追踪信息,离线的聚合聚合追踪链路。他们都有链路采样等等。

链路追踪零碎架构和模型的设计看着都是如此类似,我不禁会产生一些疑难:开发者在设计链路追踪的时候,想法都是这么统一吗?为什么要在调用链路传递元数据?元数据的这些信息都是必要的吗?不侵入批改代码能够接入到链路追踪零碎吗?为什么要异步扩散上报,离线聚合?设置链路采样有什么用?

带着各种各样的问题,我找到这些泛滥链路追踪软件的灵感之源 —《Google Dapper》论文,并且拜读了原文以及相干的援用论文。这些论文逐步解开了我心中的纳闷。

黑盒模式摸索

晚期学术界对分布式系统链路状态检测的摸索,有一派的人们认为分布式系统外面的每个利用或者中间件,应该是一个个黑盒子,链路检测不应该侵入到利用零碎外面。那个时候 Spring 还没被开发进去,管制反转和切面编程的技术也还不是很风行,如果须要侵入到利用代码外面,须要波及到批改利用代码,对于工程师来说额定接入门槛太高,这样的链路检测工具就会很难推广开来。

如果不容许侵入利用外面批改代码,那就只可能从利用的内部做手脚,获取并记录链路信息了。而因为黑盒的限度,链路信息都是零散的无奈串联起来。如何把这些链路串联起来成了须要解决的问题。

《Performance Debugging for Distributed Systems of Black Boxes》

这篇论文发表于 2003 年,是对黑盒模式下的调用链监测的摸索,文中提出了两种寻找链路信息的算法。

第一种算法称为“嵌套算法”,首先是通过生成惟一 id 的形式,把一次跨服务调用的申请(1 call)链路与返回(11 return)链路关联再一起造成链路对。而后再利用工夫的先后顺序,把不同往返链路对做平级关联或上下级关联(参考图 1)。

                                          图 1

如果利用是单线程状况,这种算法然而没有什么问题。生产的利用往往是多线程的,所以应用这种办法无奈很好的找到链路间对应关系。尽管论文提出了一种记分板惩办的办法能够对一些谬误关联的链路关系进行除权重,然而这种办法对于一些基于异步 RPC 调用的服务,却会呈现一些问题。

另外一种算法称为“卷积算法”,把往返链路当成独立的链路,而后把每个独立链路对当成一个工夫信号,应用信号处理技术,找到信号之间的关联关系。这种算法益处是可能出应用在基于异步 RPC 调用的服务上。然而如果理论的调用链路存在回环的状况,卷积算法除了可能得出理论的调用链路,还会得出其余调用链路。例如调用链路 A -> B -> C -> B -> A,卷积算法除了得出其自身调用链路,还会得出 A -> B -> A 的调用链路。如果某个节点在一个链路上呈现次数屡次,那么这个算法很可能会得出大量衍生的调用链路。

在黑盒模式下,链路之间的关系是通过概率统计的形式判断链路之间的关联关系。概率统计始终是概率,没方法准确得出链路之间的关联关系。

另一种思路

怎么样才可能准确地得出调用链路之间的关系呢?上面这篇论文就给出了一些思路与实际。

Pinpoint: Problem Determination in Large, Dynamic Internet Services

注:此 Pinpoint 非 github 上的 pinpoint-apm

这篇论文的钻研对象次要是领有不同组件的单体利用,当然相应的办法也能够扩大到分布式集群中。在论文中 Pinpoint 架构设计次要分为三局部。参考 图 2,其中 Tracing 与 Trace Log 为第一局部,称为客户端申请链路追踪(Client Request Trace),次要用于收集链路日志。Internal F/D、External F/D 和 Fault Log 为第二局部,是故障探测信息(Failure Detection),次要用于收集故障日志。Statistical Analysis 为第三局部,称为数据聚类分析(Data Clustering Analysis),次要用于剖析收集进来的日志数据,得出故障检测后果。

                                            图 2 

Pinpoint 架构中,设计了一种可能无效用于数据挖掘分析方法的数据。如 图 3 所示,每个调用链路作为一个样本数据,应用惟一的标识 request id 标记,样本的属性记录了这个调用链路所通过的程序组件(Component)以及故障状态(Failure)。

                                            图 3 

为了可能把每次调用的链路日志(Trace Logs)和 故障日志(Fault Logs)都关联起来,论文就以 Java 利用为例子,形容了如何在代码中实现这些日志的关联。上面是 Pinpoint 实际章节的一些关键点汇总:

须要为每一个组件生成一个 component id
对于每一个 http 申请生成一个惟一的 request id,并且通过线程局部变量(ThreadLocal)传递上来
对于申请内新起来的线程,须要批改线程创立类,把 request id 持续传递上来
对于申请内产生的 rpc 调用,须要批改申请端代码,把 request id 信息带入 header,并在接收端解析这个 header 注入到线程本地变量
每次调用到一个组件(component),就应用 (request id, component id) 组合记录一个 Trace Log
对 java 利用而言,这几个点技术实际简略,操作性高,为现今链路追踪零碎实现链路串联,链路流传(Propegation)提供了基本思路。

这篇论文发表工夫是 2002 年,那个时候 java 版本是 1.4,曾经具备了线程本地变量(ThreadLocal)的能力,在线程中携带信息是比拟容易做到的。但又因为在那个时代切面编程还不是很遍及(Spring 呈现在 2003 年,javaagent 是在 java 1.5 才有的能力,公布于 2004 年),所以这样的办法并不可能被广泛应用。如果反过来想,可能正是因为这些编程需要的呈现,促使着 java 切面编程畛域的技术提高。

从新构建调用链路

X-Trace: A Pervasive Network Tracing Framework

这篇论文次要钻研对象是分布式集群外面的网络链路。X-Trace 论文连续并扩大了 Pinpoint 论文的思路,提了可能从新构建残缺调用链路的框架和模型。为了达到目标,文中定义了三个设计准则:

在调用链路内携带元数据(在调用链路传递的数据也称之为带内数据,in-bound data)
上报的链路信息不留存在调用链路内,收集链路信息的机制须要与利用自身正交(注:不在调用链路外面留存的链路数据,也称之为带外数据,out-of-bound data)
注入元数据的实体应该与收集报告的实体解偶
准则 1,2 点是沿用至今的设计准则。准则 1 则是对 Poinpont 思路的扩大,链路传递从原来的 request id 扩大了更多的元素,其中 TaskID , ParentID , OpID 就是 trace id , parent id, span id 的前身。span 这个单词也在 X-Trace 论文的 Abstract 外面呈现,兴许是 Dapper 作者向 X-Trace 论文作者们的一种致敬。

上面再看看 X-Trace 对元数据的内容定义

Flags
一个 bit 数组,用于标记 TreeInfo,Destination,Options 是否应用
TaskID
全局惟一的 id,用于标识惟一的调用链
TreeInfo
ParentID – 父节点 id,调用链内惟一
OpID – 以后操作 id,调用链内惟一
EdgeType – NEXT 示意兄弟关系,DOWN 示意父子关系
Destination
用于指定上报地址
Options
预留字段,用于扩大
除了对元数据的定义,论文还定义了两个链路流传的操作,别离是 pushDown() 与 pushNext()。pushDown()示意拷贝元数据到下一层级,pushNext() 则示意从以后节点流传元数据到下一个节点。

                         图 4 pushDown() 与 pushNext() 的伪代码

                 图 5 pushDown() 与 pushNext() 操作在调用链路中的执行的地位

在 X-Trace 上报链路数据的结构设计中,遵循了第 2 个设计准则。如 图 6 所示,X-Trace 为利用提供了一个轻量的客户端包,使得利用端能够转发链路数据到一个本地的守护过程。而本地的守护过程则是凋谢一个 UDP 协定端口,接管客户端包发过来的数据,并放入到一个队列外面。队列的另外一边则依据链路数据的具体具体配置信息,发送到对应的中央去,兴许是一个数据库,兴许是一个数据转发服务、数据收集服务或者是数据聚合服务。

                                            图 6

X-Trace 上报链路数据的架构设计,对当初市面上的链路追踪实现有着不小的影响。对照 Zipkin 的 collector 以及 Jeager 的 jaeger-agent,多少可能看到 X-Trace 的影子。

X-Trace 的三个设计准则、带内带外数据的定义、元数据流传操作定义、链路数据上报架构等,都是现今链路追踪零碎有所借鉴的内容。对照 Zipkin 的 collector 以及 Jeager 的 jaeger-agent,就多少可能看到 X-Trace 链路数据上报架构的影子。

大规模商用实际 — Dapper

Dapper, a Large-Scale Distributed Systems Tracing Infrastructure

Dapper 是谷歌外部用于给开发者们提供简单分布式系统行为信息的零碎。Dapper 论文则是介绍谷歌对这个分布式链路追踪基础设施设计和实际的教训。Dapper 论文公布于 2010 年,依据论文的表述,Dapper 零碎曾经在谷歌外部有两年的实践经验了。

Dapper 零碎的次要目标是给开发者提供提供简单分布式系统行为信息。文中剖析为了实现这样的零碎,须要解决什么样的问题。并依据这些问题提出了两个根本的设计需要:大范畴部署和持续性的监控。针对着两个根本设计要求,提出了三个具体的设计指标:

低开销 (Low overhead):链路追踪零碎须要保障对在线服务的的性能影响做到忽略不计的水平。即便是很小的监控耗费也会对一些高度优化过的服务有可发觉的影响,甚至迫使部署团队敞开追踪零碎。
利用级透明化 (Application-level transparecy):开发者不应该感知到链路追踪设施。如果链路追踪零碎须要依赖利用级开发者帮助才可能工作,那么这个链路追踪设施会变得十分最弱,而且常常会因为 bugs 或者忽略导致无奈失常工作。这违反了大范畴部署的设计需要。
可伸缩性 (Scalability):链路追踪零碎须要可能满足 Google 将来几年的服务和集群的规模。
尽管 Dapper 的设计概念与 Pinpoint、Magpie、X-Trace 有许多是想通的,然而 Dapper 也有本人的一些独到的设计。其中一点就是为了达到低开销的设计指标,Dapper 对申请链路进行了采样收集。依据 Dapper 在谷歌的实践经验,对于许多罕用的场景,即便对 1/1000 的申请进行采样收集,也可能失去足够的信息。

另外一个独到的特点是他们实现十分高的利用透明度。这个得益于 Google 利用集群部署有比拟高的同质化,他们能够把链路追踪设施实现代码限度在软件的底层而不须要在利用外面增加而外的注解信息。举个例子,集群内利用如果应用雷同的 http 库、音讯告诉库、线程池工厂和 RPC 库,那么就能够把链路追踪设施限度在这些代码模块外面。

如何定义链路信息的?

文中首先举了一个简略的调用链例子,如 图 7,作者认为对一个申请做分布式追踪须要收集音讯的识别码以及音讯对应的事件与工夫。如果只思考 RPC 的状况,调用链路能够了解为是 RPCs 嵌套树。当然,谷歌外部的数据模型也不局限于 RPCs 调用。

X-Trace 上报链路数据的架构设计,对当初市面上的链路追踪实现有着不小的影响。对照 Zipkin 的 collector 以及 Jeager 的 jaeger-agent,多少可能看到 X-Trace 的影子。

X-Trace 的三个设计准则、带内带外数据的定义、元数据流传操作定义、链路数据上报架构等,都是现今链路追踪零碎有所借鉴的内容。对照 Zipkin 的 collector 以及 Jeager 的 jaeger-agent,就多少可能看到 X-Trace 链路数据上报架构的影子。

图 7

图 8 论述了 Dapper 追踪树的构造,树的节点为根本单元,称之为 span。边线为父子 span 之间的连贯。一个 span 就是简略带有起止工夫戳、RPC 耗时或者利用相干的注解信息。为了从新构建 Dapper 追踪树,span 还须要蕴含以下信息:

span name: 易于浏览的名字,如图 8 中的 Frontend.Request
span id: 一个 64bit 的惟一标识符
parent id: 父 span id

                                         图 8

图 9 是一个 RPC span 的详细信息。值得一提的是,一个雷同的 span 可能蕴含多个主机的信息。实际上,每一个 RPC span 都蕴含了客户端和服务端解决的正文。因为客户端的工夫戳和服务端的工夫戳来自不同的主机,所以须要异样关注这些工夫的异常情况。图 9 是一个 span 的详细信息

如何实现利用级通明的?

Dapper 通过对一些通用包增加测量点,对利用开发者在零烦扰的状况下实现了分布式链路追踪,次要有以下实际:

当一个线程在解决链路追踪门路上时,Dapper 会把追踪上下文关联到线程本地存储。追踪上下文是一个玲珑且容易复制的 span 信息容易。
如果计算过程是提早的或者一步的,大多谷歌开发者会应用通用控制流库来结构回调函数,并应用线程池线程池或者其余执行器来调度。这样 Dapper 就能够保障所有的回调函数会在创立的时候存储追踪上下文,在回调函数被执行的时候追踪上下文关联到正确线程外面。
Google 简直所有的线程内通信都是建设在一个 RPC 框架构建的,包含 C++ 和 Java 的实现。框架增加上了测量,用于定义所有 RPC 调用相干 span。在被跟踪的 RPC,span 和 trace 的 id 会从客户端传递到服务端。在 Google 这个是十分必要的测量点。

结尾

Dapper 论文给出了易于浏览和有助于问题定位的数据模型设计、利用级通明的测量实际以及低开销的设计方案,为链路追踪在工业级利用的应用革除了不少阻碍,也激发了不少开发者的灵感。自从 Google Dapper 论文进去之后,不少开发者受到论文的启发,开发出了各式各样的链路追踪,2012 年推特开源 Zipkin、Naver 开源 Pinpoint,2015 年吴晟开源 Skywalking,Uber 开源 Jaeger 等。从此链路追踪进入了百家争鸣的时代。

一键订阅专栏,学技术不迷路

《云荐大咖》是腾讯云加社区精品内容专栏。云荐官特邀行业佼者,聚焦于前沿技术的落地及实践实际之上,继续为您解读云时代热点技术、摸索行业倒退新机。点击一键订阅,咱们将为你定期推送精品内容。

p.s. 云荐官将随机抽取局部订阅小伙伴,送出腾讯行业大会、见面会门票、云加视频礼盒、腾讯公仔!

大咖常驻栏目,为您答疑解惑

有疑难?有感悟?想探讨?冀望老师推出什么作品?欢送在本文评论区发问、交换,老师将为您解答。
云荐官将抽取 1 位小伙伴送出云加视频礼盒一份!

正文完
 0