关于程序员:Zookeeper面试这一篇就够了

39次阅读

共计 17714 个字符,预计需要花费 45 分钟才能阅读完成。

谈下你对 Zookeeper 的意识?

ZooKeeper 是一个分布式的,开放源码的分布式应用程序协调服务。它是一个为分布式应用提供一致性服务的软件,提供的性能包含:配置保护、域名服务、分布式同步、组服务等。

ZooKeeper 的指标就是封装好简单易出错的要害服务,将简略易用的接口和性能高效、性能稳固的零碎提供给用户。


Zookeeper 都有哪些性能?

  1. 集群治理:监控节点存活状态、运行申请等;
  2. 主节点选举:主节点挂掉了之后能够从备用的节点开始新一轮选主,主节点选举说的就是这个选举的过程,应用 Zookeeper 能够帮助实现这个过程;
  3. 分布式锁:Zookeeper 提供两种锁:独占锁、共享锁。独占锁即一次只能有一个线程应用资源,共享锁是读锁共享,读写互斥,即能够有多线线程同时读同一个资源,如果要应用写锁也只能有一个线程应用。Zookeeper 能够对分布式锁进行管制。
  4. 命名服务:在分布式系统中,通过应用命名服务,客户端利用可能依据指定名字来获取资源或服务的地址,提供者等信息。
  5. 对立配置管理:分布式环境下,配置文件治理和同步是一个常见问题,一个集群中,所有节点的配置信息是统一的,比方 Hadoop 集群、集群中的数据库配置信息等全局配置

zookeeper 负载平衡和 nginx 负载平衡区别

Nginx 是驰名的反向代理服务器,zk 是分布式协调服务框架,都能够做负载平衡

zk 的负载平衡是能够调控,nginx 只是能调权重,其余须要可控的都须要本人写插件;

然而 nginx 的吞吐量比 zk 大很多,应该说按业务抉择用哪种形式


一致性协定 2PC、3PC?

2PC

阶段一:提交事务申请(”投票阶段“)

当要执行一个分布式事务的时候,事务发起者首先向协调者发动事务申请,而后协调者会给所有参与者发送 prepare 申请(其中包含事务内容)通知参与者你们须要执行事务了,如果能执行我发的事务内容那么就先执行但不提交,执行后请给我回复。而后参与者收到 prepare 音讯后,他们会开始执行事务(但不提交),并将 UndoRedo 信息记入事务日志中,之后参与者就向协调者反馈是否筹备好了

阶段二:执行事务提交

协调者依据各参与者的反馈状况决定最终是否能够提交事务,如果反馈都是 Yes,发送提交 commit 申请,参与者提交胜利后返回 Ack 音讯,协调者接管后就实现了。如果反馈是 No 或者超时未反馈,发送 Rollback 申请,利用阶段一记录表的 Undo 信息执行回滚,并反馈给协调者Ack,中断音讯

长处:原理简略、实现不便。

毛病:

  • 单点故障问题,如果协调者挂了那么整个零碎都处于不可用的状态了
  • 阻塞问题,即当协调者发送 prepare 申请,参与者收到之后如果能解决那么它将会进行事务的解决但并不提交,这个时候会始终占用着资源不开释,如果此时协调者挂了,那么这些资源都不会再开释了,这会极大影响性能
  • 数据不统一问题,比方当第二阶段,协调者只发送了一部分的 commit 申请就挂了,那么也就意味着,收到音讯的参与者会进行事务的提交,而前面没收到的则不会进行事务提交,那么这时候就会产生数据不一致性问题

3PC

3PC,是 Three-Phase-Comimit 的缩写,即「三阶段提交」,是二阶段的改进版,将二阶段提交协定的“提交事务申请”过程一分为二。

阶段一:CanCommit

协调者向所有参与者发送 CanCommit 申请,参与者收到申请后会依据本身状况查看是否能执行事务,如果能够则返回 YES 响应并进入准备状态,否则返回 NO

阶段二:PreCommit

协调者依据参与者返回的响应来决定是否能够进行上面的 PreCommit 操作。如果下面参与者返回的都是 YES,那么协调者将向所有参与者发送 PreCommit 预提交申请,参与者收到预提交申请后,会进行事务的执行操作,并将 Undo 和 Redo 信息写入事务日志中 ,最初如果参与者顺利执行了事务则给协调者返回胜利的 Ack 响应。如果在第一阶段协调者收到了 任何一个 NO 的信息,或者 在肯定工夫内 并没有收到全副的参与者的响应,那么就会中断事务,它会向所有参与者发送中断请求 abort,参与者收到中断请求之后会立刻中断事务,或者在肯定工夫内没有收到协调者的申请,它也会中断事务

阶段三:DoCommit

这个阶段其实和 2PC 的第二阶段差不多,如果协调者收到了所有参与者在 PreCommit 阶段的 YES 响应,那么协调者将会给所有参与者发送 DoCommit 申请,参与者收到 DoCommit 申请后则会进行事务的提交工作 ,实现后则会给协调者返回响应,协调者收到所有参与者返回的事务提交胜利的响应之后则实现事务。若协调者在 PreCommit 阶段 收到了任何一个 NO 或者在肯定工夫内没有收到所有参与者的响应 ,那么就会进行中断请求的发送,参与者收到中断请求后则会 通过下面记录的回滚日志 来进行事务的回滚操作,并向协调者反馈回滚情况,协调者收到参与者返回的音讯后,中断事务。

升高了参与者的阻塞范畴,且能在单点故障后持续达成统一。

然而最重要的一致性并没有失去基本的解决,比方在 PreCommit 阶段,当一个参与者收到了申请之后其余参与者和协调者挂了或者呈现了网络分区,这个时候收到音讯的参与者都会进行事务提交,这就会呈现数据不一致性问题。


讲一讲 Paxos 算法?

Paxos 算法是基于 消息传递且具备高度容错个性的一致性算法 ,是目前公认的解决分布式一致性问题最无效的算法之一, 其解决的问题就是在分布式系统中如何就某个值(决定)达成统一

Paxos 中次要有三个角色,别离为 Proposer 提案者Acceptor 表决者Learner 学习者Paxos 算法和 2PC 一样,也有两个阶段,别离为 Prepareaccept 阶段。

在具体的实现中,一个过程可能同时充当多种角色。比方一个过程可能既是 Proposer 又是 Acceptor 又是 Learner。Proposer 负责提出提案,Acceptor 负责对提案作出裁决(accept 与否),learner 负责学习提案后果。

还有一个很重要的概念叫「提案」(Proposal)。最终要达成统一的 value 就在提案里。只有 Proposer 发的提案被半数以上的 Acceptor 承受,Proposer 就认为该提案里的 value 被选定了。Acceptor 通知 Learner 哪个 value 被选定,Learner 就认为那个 value 被选定。

阶段一:prepare 阶段

  1. Proposer 负责提出 proposal,每个提案者在提出提案时都会首先获取到一个 具备全局唯一性的、递增的提案编号 N ,即在整个集群中是惟一的编号 N,而后将该编号赋予其要提出的提案,在 第一阶段是只将提案编号发送给所有的表决者
  2. 如果一个 Acceptor 收到一个编号为 N 的 Prepare 申请,如果小于它曾经响应过的申请,则回绝,不回应或回复 error。若 N 大于该 Acceptor 曾经响应过的所有 Prepare 申请的编号(maxN),那么它就会将它 曾经批准过的编号最大的提案(如果有的话,如果还没有的 accept 提案的话返回{pok,null,null})作为响应反馈给 Proposer,同时该 Acceptor 承诺不再承受任何编号小于 N 的提案

    eg:假设一个 Acceptor 曾经响应过的所有 Prepare 申请对应的提案编号别离是 1、2、…5 和 7,那么该 Acceptor 在接管到一个编号为 8 的 Prepare 申请后,就会将 7 的提案作为响应反馈给 Proposer。

阶段二:accept 阶段

  1. 如果一个 Proposer 收到半数以上 Acceptor 对其收回的编号为 N 的 Prepare 申请的响应,那么它就会发送一个针对 [N,V] 提案的 Accept 申请半数以上的 Acceptor。留神:V 就是收到的响应中编号最大的提案的 value,如果响应中不蕴含任何提案,那么 V 就由 Proposer 本人决定
  2. 如果 Acceptor 收到一个针对编号为 N 的提案的 Accept 申请,只有该 Acceptor 没有对编号大于 N 的 Prepare 申请做出过响应,它就通过该提案。如果 N 小于 Acceptor 以及响应的 prepare 申请,则回绝,不回应或回复 error(当 proposer 没有收到过半的回应,那么他会从新进入第一阶段,递增提案号,从新提出 prepare 申请)
  3. 最初是 Learner 获取通过的提案(有多种形式)

paxos 算法的死循环问题

其实就有点相似于两个人吵架,小明说我是对的,小红说我才是对的,两个人据理力争的谁也不让谁🤬🤬。

比如说,此时提案者 P1 提出一个计划 M1,实现了 Prepare 阶段的工作,这个时候 acceptor 则批准了 M1,然而此时提案者 P2 同时也提出了一个计划 M2,它也实现了 Prepare 阶段的工作。而后 P1 的计划曾经不能在第二阶段被批准了(因为 acceptor 曾经批准了比 M1 更大的 M2),所以 P1 自增计划变为 M3 从新进入 Prepare 阶段,而后 acceptor,又批准了新的 M3 计划,它又不能批准 M2 了,这个时候 M2 又自增进入 Prepare 阶段。。。

就这样无休无止的永远提案上来,这就是 paxos 算法的死循环问题。

谈下你对 ZAB 协定的理解?

ZAB(Zookeeper Atomic Broadcast)协定是为分布式协调服务 Zookeeper 专门设计的一种反对 解体复原的原子播送协定

在 Zookeeper 中,次要依赖 ZAB 协定来实现分布式数据一致性,基于该协定,ZooKeeper 实现了一种主备模式的零碎架构来放弃集群中各正本之间数据的一致性。

只管 ZAB 不是 Paxos 的实现,然而 ZAB 也参考了一些 Paxos 的一些设计思维,比方:

  • leader 向 follows 提出提案(proposal)
  • leader 须要在达到法定数量 (半数以上) 的 follows 确认之后才会进行 commit
  • 每一个 proposal 都有一个纪元 (epoch) 号,相似于 Paxos 中的选票(ballot)

    ZAB 中有三个次要的角色,Leader 领导者Follower 跟随者Observer 观察者

  • Leader:集群中 惟一的写申请解决者,可能发动投票(投票也是为了进行写申请)。
  • Follower:可能接管客户端的申请,如果是读申请则能够本人解决,如果是写申请则要转发给 Leader。在选举过程中会参加投票,有选举权和被选举权。
  • Observer:就是没有选举权和被选举权的 Follower。

在 ZAB 协定中对 zkServer(即下面咱们说的三个角色的总称) 还有两种模式的定义,别离是音讯播送和解体复原

音讯播送模式

  1. Leader 从客户端收到一个事务申请(如果是集群中其余机器接管到客户端的事务申请,会间接转发给 Leader 服务器)
  2. Leader 服务器生成一个对应的事务 Proposal,并为这个事务生成一个全局递增的惟一的 ZXID(通过其 ZXID 来进行排序保障程序性)
  3. Leader 将这个事务发送给所有的 Follows 节点
  4. Follower 节点将收到的事务申请退出到历史队列 (Leader 会为每个 Follower 调配一个独自的队列先进先出,程序保障音讯的因果关系) 中,并发送 ack 给 Leader
  5. 当 Leader 收到超过半数 Follower 的 ack 音讯,Leader 会播送一个 commit 音讯
  6. 当 Follower 收到 commit 申请时,会判断该事务的 ZXID 是不是比历史队列中的任何事务的 ZXID 都小,如果是则提交,如果不是则期待比它更小的事务的 commit

解体恢复模式

ZAB 的原子播送协定在失常状况下运行良好,但天有不测风云,一旦 Leader 服务器挂掉或者因为网络起因导致与半数的 Follower 的服务器失去分割,那么就会进入解体恢复模式。整个复原过程完结后须要选举出一个新的 Leader 服务器。

恢复模式大抵能够分为四个阶段:选举、发现、同步、播送

  1. 当 leader 解体后,集群进入选举阶段,开始选举出潜在的新 leader(个别为集群中领有最大 ZXID 的节点)
  2. 进入发现阶段,follower 与潜在的新 leader 进行沟通,如果发现超过法定人数的 follower 批准,则潜在的新 leader 将 epoc h 加 1,进入新的纪元。新的 leader 产生
  3. 集群间进行数据同步,保障集群中各个节点的事务统一
  4. 集群复原到播送模式,开始承受客户端的写申请

Zookeeper 怎么保障主从节点的状态同步?或者说同步流程是什么样的

Zookeeper 的外围是原子播送机制,这个机制保障了各个 server 之间的同步。实现这个机制的协定叫做 Zab 协定。Zab 协定有两种模式,它们别离是恢复模式和播送模式。同上


集群中为什么要有主节点?

在分布式环境中,有些业务逻辑只须要集群中的某一台机器进行执行,其余的机器能够共享这个后果,这样能够大大减少反复计算,进步性能,于是就须要进行 leader 选举。


集群中有 3 台服务器,其中一个节点宕机,这个时候 Zookeeper 还能够应用吗?

能够持续应用,复数服务器只有没超过一半的服务器宕机就能够持续应用。

集群规定为 2N+1 台,N >0,即起码须要 3 台。

Zookeeper 宕机如何解决?

Zookeeper 自身也是集群,举荐配置不少于 3 个服务器。Zookeeper 本身也要保障当一个节点宕机时,其余节点会持续提供服务。如果是一个 Follower 宕机,还有 2 台服务器提供拜访,因为 Zookeeper 上的数据是有多个正本的,数据并不会失落;如果是一个 Leader 宕机,Zookeeper 会选举出新的 Leader。

Zookeeper 集群的机制是只有超过半数的节点失常,集群就能失常提供服务。只有在 Zookeeper 节点挂得太多,只剩一半或不到一半节点能工作,集群才生效。所以:

3 个节点的 cluster 能够挂掉 1 个节点(leader 能够失去 2 票 > 1.5)

2 个节点的 cluster 就不能挂掉任何 1 个节点了(leader 能够失去 1 票 <= 1)


说下四种类型的数据节点 Znode?

  1. PERSISTENT:长久节点,除非手动删除,否则节点始终存在于 Zookeeper 上。
  2. EPHEMERAL:长期节点,长期节点的生命周期与客户端会话绑定,一旦客户端会话生效(客户端与 Zookeeper 连贯断开不肯定会话生效),那么这个客户端创立的所有长期节点都会被移除。
  3. PERSISTENT_SEQUENTIAL:长久程序节点,根本个性同长久节点,只是减少了程序属性,节点名后边会追加一个由父节点保护的自增整型数字。
  4. EPHEMERAL_SEQUENTIAL:长期程序节点,根本个性同长期节点,减少了程序属性,节点名后边会追加一个由父节点保护的自增整型数字。

Zookeeper 选举机制

  1. 首先比照 zxid。zxid 大的服务器优先作为 Leader
  2. 若 zxid 雷同,比方初始化的时候,每个 Server 的 zxid 都为 0,就会比拟 myid,myid 大的选出来做 Leader。

    服务器初始化时选举

目前有 3 台服务器,每台服务器均没有数据,它们的编号别离是 1,2,3 按编号顺次启动,它们的抉择举过程如下:

  1. Server1 启动,给本人投票(1,0),而后发投票信息,因为其它机器还没有启动所以它收不到反馈信息,Server1 的状态始终属于 Looking。
  2. Server2 启动,给本人投票(2,0),同时与之前启动的 Server1 替换后果,因为 Server2 的编号大所以 Server2 胜出,但此时投票数正好大于半数,所以 Server2 成为领导者,Server1 成为小弟。
  3. Server3 启动,给本人投票(3,0),同时与之前启动的 Server1,Server2 换信息,只管 Server3 的编号大,但之前 Server2 曾经胜出,所以 Server3 只能成为小弟。
  4. 当确定了 Leader 之后,每个 Server 更新本人的状态,Leader 将状态更新为 Leading,Follower 将状态更新为 Following。

服务器运行期间的选举

zookeeper 运行期间,如果有新的 Server 退出,或者非 Leader 的 Server 宕机,那么 Leader 将会同步数据到新 Server 或者寻找其余备用 Server 代替宕机的 Server。若 Leader 宕机,此时集群暂停对外服务,开始在外部选举新的 Leader。假如以后集群中有 Server1、Server2、Server3 三台服务器,Server2 为以后集群的 Leader,因为意外状况,Server2 宕机了,便开始进入选举状态。过程如下

  1. 变更状态。其余的非 Observer 服务器将本人的状态扭转为 Looking,开始进入 Leader 选举。
  2. 每个 Server 收回一个投票(myid,zxid),因为此集群曾经运行过,所以每个 Server 上的 zxid 可能不同。假如 Server1 的 zxid 为 100,Server3 的为 99,第一轮投票中,Server1 和 Server3 都投本人,票别离为(1,100),(3,99), 将本人的票发送给集群中所有机器。
  3. 每个 Server 接管接管来自其余 Server 的投票,接下来的步骤与启动时步骤雷同。

1. ZooKeeper 是什么?

ZooKeeper 是一个开源的分布式协调服务。它是一个为分布式应用提供一致性服务的软件,分布式应用程序能够基于 Zookeeper 实现诸如数据公布 / 订阅、负载平衡、命名服务、分布式协调 / 告诉、集群治理、Master 选举、分布式锁和分布式队列等性能。

ZooKeeper 的指标就是封装好简单易出错的要害服务,将简略易用的接口和性能高效、性能稳固的零碎提供给用户。

Zookeeper 保障了如下分布式一致性个性:

  1. 程序一致性
  2. 原子性
  3. 繁多视图(全局数据统一)
  4. 可靠性
  5. 实时性(最终一致性)

客户端的读申请能够被集群中的任意一台机器解决,如果读申请在节点上注册了监听器,这个监听器也是由所连贯的 zookeeper 机器来解决。对于写申请,这些申请会同时发给其余 zookeeper 机器并且达成统一后,申请才会返回胜利。因而,随着 zookeeper 的集群机器增多,读申请的吞吐会进步然而写申请的吞吐会降落。

有序性是 zookeeper 中十分重要的一个个性,所有的更新都是全局有序的,每个更新都有一个惟一的工夫戳,这个工夫戳称为 zxid(Zookeeper Transaction Id)。而读申请只会绝对于更新有序,也就是读申请的返回后果中会带有这个 zookeeper 最新的 zxid。

2. ZooKeeper 提供了什么?

  • 文件系统
  • 告诉机制

3. Zookeeper 文件系统

Zookeeper 提供一个多层级的节点命名空间(节点称为 znode)。与文件系统不同的是,这些节点都能够设置关联的数据,而文件系统中只有文件节点能够存放数据而目录节点不行。

Zookeeper 为了保障高吞吐和低提早,在内存中保护了这个树状的目录构造,这种个性使得 Zookeeper 不能用于寄存大量的数据,每个节点的存放数据下限为 1M。

4. Zookeeper 怎么保障主从节点的状态同步?

Zookeeper 的外围是原子播送机制,这个机制保障了各个 server 之间的同步。实现这个机制的协定叫做 Zab 协定。Zab 协定有两种模式,它们别离是恢复模式和播送模式。

1、恢复模式

当服务启动或者在领导者解体后,Zab 就进入了恢复模式,当领导者被选举进去,且大多数 server 实现了和 leader 的状态同步当前,恢复模式就完结了。状态同步保障了 leader 和 server 具备雷同的零碎状态。

2、播送模式

一旦 leader 曾经和少数的 follower 进行了状态同步后,它就能够开始播送音讯了,即进入播送状态。这时候当一个 server 退出 ZooKeeper 服务中,它会在恢复模式下启动,发现 leader,并和 leader 进行状态同步。待到同步完结,它也参加音讯播送。ZooKeeper 服务始终维持在 Broadcast 状态,直到 leader 解体了或者 leader 失去了大部分的 followers 反对。

5. 四种类型的数据节点 Znode

  1. PERSISTENT-长久节点

    除非手动删除,否则节点始终存在于 Zookeeper 上

  2. EPHEMERAL-长期节点

    长期节点的生命周期与客户端会话绑定,一旦客户端会话生效(客户端与 zookeeper 连贯断开不肯定会话生效),那么这个客户端创立的所有长期节点都会被移除。

  3. PERSISTENT_SEQUENTIAL- 长久程序节点

    根本个性同长久节点,只是减少了程序属性,节点名后边会追加一个由父节点保护的自增整型数字。

  4. EPHEMERAL_SEQUENTIAL-长期程序节点

    根本个性同长期节点,减少了程序属性,节点名后边会追加一个由父节点保护的自增整型数字。

6. Zookeeper Watcher 机制 – 数据变更告诉

Zookeeper 容许客户端向服务端的某个 Znode 注册一个 Watcher 监听,当服务端的一些指定事件触发了这个 Watcher,服务端会向指定客户端发送一个事件告诉来实现分布式的告诉性能,而后客户端依据 Watcher 告诉状态和事件类型做出业务上的扭转。

工作机制:

(1)客户端注册 watcher

(2)服务端解决 watcher

(3)客户端回调 watcher

Watcher 个性总结:

(1)一次性

无论是服务端还是客户端,一旦一个 Watcher 被 触 发,Zookeeper 都会将其从相应的存储中移除。这样的设计无效的加重了服务端的压力,不然对于更新十分频繁的节点,服务端会一直的向客户端发送事件告诉,无论对于网络还是服务端的压力都十分大。

(2)客户端串行执行

客户端 Watcher 回调的过程是一个串行同步的过程。

(3)轻量

3.1、Watcher 告诉非常简单,只会通知客户端产生了事件,而不会阐明事件的具体内容。

3.2、客户端向服务端注册 Watcher 的时候,并不会把客户端实在的 Watcher 对象实体传递到服务端,仅仅是在客户端申请中应用 boolean 类型属性进行了标记。

(4)watcher event 异步发送 watcher 的告诉事件从 server 发送到 client 是异步的,这就存在一个问题,不同的客户端和服务器之间通过 socket 进行通信,因为网络提早或其余因素导致客户端在不通的时刻监听到事件,因为 Zookeeper 自身提供了 ordering guarantee,即客户端监听事件后,才会感知它所监督 znode 产生了变动。所以咱们应用 Zookeeper 不能冀望可能监控到节点每次的变动。Zookeeper 只能保障最终的一致性,而无奈保障强一致性。

(5)注册 watcher getData、exists、getChildren

(6)触发 watcher create、delete、setData

(7)当一个客户端连贯到一个新的服务器上时,watch 将会被以任意会话事件触发。当与一个服务器失去连贯的时候,是无奈接管到 watch 的。而当 client 从新连贯时,如果需要的话,所有先前注册过的 watch,都会被从新注册。通常这是齐全通明的。只有在一个非凡状况下,watch 可能会失落:对于一个未创立的 znode 的 exist watch,如果在客户端断开连接期间被创立了,并且随后在客户端连贯上之前又删除了,这种状况下,这个 watch 事件可能会被失落。

7. 客户端注册 Watcher 实现

(1)调用 getData()/getChildren()/exist()三个 API,传入 Watcher 对象

(2)标记申请 request,封装 Watcher 到 WatchRegistration

(3)封装成 Packet 对象,发服务端发送 request

(4)收到服务端响应后,将 Watcher 注册到 ZKWatcherManager 中进行治理

(5)申请返回,实现注册。

8. 服务端解决 Watcher 实现

(1)服务端接管 Watcher 并存储

接管到客户端申请,解决申请判断是否须要注册 Watcher,需要的话将数据节点的节点门路和 ServerCnxn(ServerCnxn 代表一个客户端和服务端的连贯,实现了 Watcher 的 process 接口,此时能够看成一个 Watcher 对象)存储在 WatcherManager 的 WatchTable 和 watch2Paths 中去。

(2)Watcher 触发

以服务端接管到 setData() 事务申请触发 NodeDataChanged 事件为例:

2.1 封装 WatchedEvent

将告诉状态(SyncConnected)、事件类型(NodeDataChanged)以及节点门路封装成一个 WatchedEvent 对象

2.2 查问 Watcher

从 WatchTable 中依据节点门路查找 Watcher

2.3 没找到;阐明没有客户端在该数据节点上注册过 Watcher

2.4 找到;提取并从 WatchTable 和 Watch2Paths 中删除对应 Watcher(从这里能够看出 Watcher 在服务端是一次性的,触发一次就生效了)

(3)调用 process 办法来触发 Watcher

这里 process 次要就是通过 ServerCnxn 对应的 TCP 连贯发送 Watcher 事件告诉。

9. 客户端回调 Watcher

客户端 SendThread 线程接管事件告诉,交由 EventThread 线程回调 Watcher。

客户端的 Watcher 机制同样是一次性的,一旦被触发后,该 Watcher 就生效了。

10. ACL 权限管制机制

UGO(User/Group/Others)

目前在 Linux/Unix 文件系统中应用,也是应用最宽泛的权限管制形式。是一种粗粒度的文件系统权限管制模式。

ACL(Access Control List)访问控制列表

包含三个方面:

权限模式(Scheme)

(1)IP:从 IP 地址粒度进行权限管制

(2)Digest:最罕用,用相似于 username:password 的权限标识来进行权限配置,便于辨别不同利用来进行权限管制

(3)World:最凋谢的权限管制形式,是一种非凡的 digest 模式,只有一个权限标识“world:anyone”

(4)Super:超级用户

受权对象

受权对象指的是权限赋予的用户或一个指定实体,例如 IP 地址或是机器灯。

权限 Permission

(1)CREATE:数据节点创立权限,容许受权对象在该 Znode 下创立子节点

(2)DELETE:子节点删除权限,容许受权对象删除该数据节点的子节点

(3)READ:数据节点的读取权限,容许受权对象拜访该数据节点并读取其数据内容或子节点列表等

(4)WRITE:数据节点更新权限,容许受权对象对该数据节点进行更新操作

(5)ADMIN:数据节点管理权限,容许受权对象对该数据节点进行 ACL 相干设置操作

11. Chroot 个性

3.2.0 版本后,增加了 Chroot 个性,该个性容许每个客户端为本人设置一个命名空间。如果一个客户端设置了 Chroot,那么该客户端对服务器的任何操作,都将会被限度在其本人的命名空间下。

通过设置 Chroot,可能将一个客户端利用于 Zookeeper 服务端的一颗子树绝对应,在那些多个利用专用一个 Zookeeper 进群的场景下,对实现不同利用间的互相隔离十分有帮忙。

12. 会话治理

分桶策略:将相似的会话放在同一区块中进行治理,以便于 Zookeeper 对会话进行不同区块的隔离解决以及同一区块的对立解决。

分配原则:每个会话的“下次超时工夫点”(ExpirationTime)

计算公式:

ExpirationTime_ = currentTime + sessionTimeout

ExpirationTime = (ExpirationTime_ / ExpirationInrerval + 1) *

ExpirationInterval , ExpirationInterval 是指 Zookeeper 会话超时查看工夫距离,默认 tickTime

13. 服务器角色

Leader

(1)事务申请的惟一调度和解决者,保障集群事务处理的程序性

(2)集群外部各服务的调度者

Follower

(1)解决客户端的非事务申请,转发事务申请给 Leader 服务器

(2)参加事务申请 Proposal 的投票

(3)参加 Leader 选举投票

Observer

(1)3.0 版本当前引入的一个服务器角色,在不影响集群事务处理能力的根底上晋升集群的非事务处理能力

(2)解决客户端的非事务申请,转发事务申请给 Leader 服务器

(3)不参加任何模式的投票

14. Zookeeper 下 Server 工作状态

服务器具备四种状态,别离是 LOOKING、FOLLOWING、LEADING、OBSERVING。

(1)LOOKING:寻 找 Leader 状态。当服务器处于该状态时,它会认为以后集群中没有 Leader,因而须要进入 Leader 选举状态。

(2)FOLLOWING:跟随者状态。表明以后服务器角色是 Follower。

(3)LEADING:领导者状态。表明以后服务器角色是 Leader。

(4)OBSERVING:观察者状态。表明以后服务器角色是 Observer。

15. 数据同步

整个集群实现 Leader 选举之后,Learner(Follower 和 Observer 的统称)回向 Leader 服务器进行注册。当 Learner 服务器想 Leader 服务器实现注册后,进入数据同步环节。

数据同步流程:(均以消息传递的形式进行)

Learner 向 Leader 注册

数据同步

同步确认

Zookeeper 的数据同步通常分为四类:

(1)间接差异化同步(DIFF 同步)

(2)先回滚再差异化同步(TRUNC+DIFF 同步)

(3)仅回滚同步(TRUNC 同步)

(4)全量同步(SNAP 同步)

在进行数据同步前,Leader 服务器会实现数据同步初始化:

peerLastZxid:

· 从 learner 服务器注册时发送的 ACKEPOCH 音讯中提取 lastZxid(该 Learner 服务器最初解决的 ZXID)

minCommittedLog:

· Leader 服务器 Proposal 缓存队列 committedLog 中最小 ZXIDmaxCommittedLog:

· Leader 服务器 Proposal 缓存队列 committedLog 中最大 ZXID 间接差异化同步(DIFF 同步)

· 场景:peerLastZxid 介于 minCommittedLog 和 maxCommittedLog 之间先回滚再差异化同步(TRUNC+DIFF 同步)

· 场景:当新的 Leader 服务器发现某个 Learner 服务器蕴含了一条本人没有的事务记录,那么就须要让该 Learner 服务器进行事务回滚–回滚到 Leader 服务器上存在的,同时也是最靠近于 peerLastZxid 的 ZXID 仅回滚同步(TRUNC 同步)

· 场景:peerLastZxid 大于 maxCommittedLog

全量同步(SNAP 同步)

· 场景一:peerLastZxid 小于 minCommittedLog

· 场景二:Leader 服务器上没有 Proposal 缓存队列且 peerLastZxid 不等于 lastProcessZxid

16. zookeeper 是如何保障事务的程序一致性的?

zookeeper 采纳了全局递增的事务 Id 来标识,所有的 proposal(提议)都在被提出的时候加上了 zxid,zxid 实际上是一个 64 位的数字,高 32 位是 epoch(期间; 纪元; 世; 新时代)用来标识 leader 周期,如果有新的 leader 产生进去,epoch 会自增,低 32 位用来递增计数。当新产生 proposal 的时候,会根据数据库的两阶段过程,首先会向其余的 server 收回事务执行申请,如果超过半数的机器都能执行并且可能胜利,那么就会开始执行。

17. 分布式集群中为什么会有 Master 主节点?

在分布式环境中,有些业务逻辑只须要集群中的某一台机器进行执行,其余的机器能够共享这个后果,这样能够大大减少反复计算,进步性能,于是就须要进行 leader 选举。

18. zk 节点宕机如何解决?

Zookeeper 自身也是集群,举荐配置不少于 3 个服务器。Zookeeper 本身也要保障当一个节点宕机时,其余节点会持续提供服务。

如果是一个 Follower 宕机,还有 2 台服务器提供拜访,因为 Zookeeper 上的数据是有多个正本的,数据并不会失落;

如果是一个 Leader 宕机,Zookeeper 会选举出新的 Leader。

ZK 集群的机制是只有超过半数的节点失常,集群就能失常提供服务。只有在 ZK 节点挂得太多,只剩一半或不到一半节点能工作,集群才生效。

所以

3 个节点的 cluster 能够挂掉 1 个节点(leader 能够失去 2 票 >1.5)

2 个节点的 cluster 就不能挂掉任何 1 个节点了(leader 能够失去 1 票 <=1)

19. zookeeper 负载平衡和 nginx 负载平衡区别

zk 的负载平衡是能够调控,nginx 只是能调权重,其余须要可控的都须要本人写插件;然而 nginx 的吞吐量比 zk 大很多,应该说按业务抉择用哪种形式。

20. Zookeeper 有哪几种几种部署模式?

Zookeeper 有三种部署模式:

  1. 单机部署:一台集群上运行;
  2. 集群部署:多台集群运行;
  3. 伪集群部署:一台集群启动多个 Zookeeper 实例运行。

21. 集群起码要几台机器,集群规定是怎么的?集群中有 3 台服务器,其中一个节点宕机,这个时候 Zookeeper 还能够应用吗?

集群规定为 2N+1 台,N>0,即 3 台。能够持续应用,复数服务器只有没超过一半的服务器宕机就能够持续应用。

22. 集群反对动静增加机器吗?

其实就是程度扩容了,Zookeeper 在这方面不太好。两种形式:

全副重启:敞开所有 Zookeeper 服务,批改配置之后启动。不影响之前客户端的会话。

一一重启:在过半存活即可用的准则下,一台机器重启不影响整个集群对外提供服务。这是比拟罕用的形式。

3.5 版本开始反对动静扩容。

23. Zookeeper 对节点的 watch 监听告诉是永恒的吗?为什么不是永恒的?

不是。官网申明:一个 Watch 事件是一个一次性的触发器,当被设置了 Watch 的数据产生了扭转的时候,则服务器将这个扭转发送给设置了 Watch 的客户端,以便告诉它们。

为什么不是永恒的,举个例子,如果服务端变动频繁,而监听的客户端很多状况下,每次变动都要告诉到所有的客户端,给网络和服务器造成很大压力。

个别是客户端执行 getData(“/ 节点 A”,true),如果节点 A 产生了变更或删除,客户端会失去它的 watch 事件,然而在之后节点 A 又产生了变更,而客户端又没有设置 watch 事件,就不再给客户端发送。

在理论利用中,很多状况下,咱们的客户端不须要晓得服务端的每一次变动,我只有最新的数据即可。

24. Zookeeper 的 java 客户端都有哪些?

java 客户端:zk 自带的 zkclient 及 Apache 开源的 Curator。

25. chubby 是什么,和 zookeeper 比你怎么看?

chubby 是 google 的,齐全实现 paxos 算法,不开源。zookeeper 是 chubby 的开源实现,应用 zab 协定,paxos 算法的变种。

26. 说几个 zookeeper 罕用的命令。

常用命令:ls get set create delete 等。

27. ZAB 和 Paxos 算法的分割与区别?

相同点:

(1)两者都存在一个相似于 Leader 过程的角色,由其负责协调多个 Follower 过程的运行

(2)Leader 过程都会期待超过半数的 Follower 做出正确的反馈后,才会将一个提案进行提交

(3)ZAB 协定中,每个 Proposal 中都蕴含一个 epoch 值来代表以后的 Leader 周期,Paxos 中名字为 Ballot

不同点:

ZAB 用来构建高可用的分布式数据主备零碎(Zookeeper),Paxos 是用来构建分布式一致性状态机零碎。

28. Zookeeper 的典型利用场景

Zookeeper 是一个典型的公布 / 订阅模式的分布式数据管理与协调框架,开发人员能够应用它来进行分布式数据的公布和订阅。

通过对 Zookeeper 中丰盛的数据节点进行穿插应用,配合 Watcher 事件告诉机制,能够十分不便的构建一系列分布式应用中年都会波及的外围性能,如:

(1)数据公布 / 订阅

(2)负载平衡

(3)命名服务

(4)分布式协调 / 告诉

(5)集群治理

(6)Master 选举

(7)分布式锁

(8)分布式队列

数据公布 / 订阅

介绍

数据公布 / 订阅零碎,即所谓的配置核心,顾名思义就是发布者公布数据供订阅者进行数据订阅。

目标

动静获取数据(配置信息)

实现数据(配置信息)的集中式治理和数据的动静更新

设计模式

Push 模式

Pull 模式

数据(配置信息)个性

(1)数据量通常比拟小

(2)数据内容在运行时会产生动静更新

(3)集群中各机器共享,配置统一

如:机器列表信息、运行时开关配置、数据库配置信息等

基于 Zookeeper 的实现形式

· 数据存储:将数据(配置信息)存储到 Zookeeper 上的一个数据节点

· 数据获取:利用在启动初始化节点从 Zookeeper 数据节点读取数据,并在该节点上注册一个数据变更 Watcher

· 数据变更:当变更数据时,更新 Zookeeper 对应节点数据,Zookeeper 会将数据变更告诉发到各客户端,客户端接到告诉后从新读取变更后的数据即可。

负载平衡

zk 的命名服务

命名服务是指通过指定的名字来获取资源或者服务的地址,利用 zk 创立一个全局的门路,这个门路就能够作为一个名字,指向集群中的集群,提供的服务的地址,或者一个近程的对象等等。

分布式告诉和协调

对于系统调度来说:操作人员发送告诉理论是通过控制台扭转某个节点的状态,而后 zk 将这些变动发送给注册了这个节点的 watcher 的所有客户端。

对于执行情况汇报:每个工作过程都在某个目录下创立一个长期节点。并携带工作的进度数据,这样汇总的过程能够监控目录子节点的变动取得工作进度的实时的全局状况。

zk 的命名服务(文件系统)

命名服务是指通过指定的名字来获取资源或者服务的地址,利用 zk 创立一个全局的门路,即是惟一的门路,这个门路就能够作为一个名字,指向集群中的集群,提供的服务的地址,或者一个近程的对象等等。

zk 的配置管理(文件系统、告诉机制)

程序分布式的部署在不同的机器上,将程序的配置信息放在 zk 的 znode 下,当有配置产生扭转时,也就是 znode 发生变化时,能够通过扭转 zk 中某个目录节点的内容,利用 watcher 告诉给各个客户端,从而更改配置。

Zookeeper 集群治理(文件系统、告诉机制)

所谓集群治理无在乎两点:是否有机器退出和退出、选举 master。

对于第一点,所有机器约定在父目录下创立长期目录节点,而后监听父目录节点

的子节点变动音讯。一旦有机器挂掉,该机器与 zookeeper 的连贯断开,其所创立的长期目录节点被删除,所有其余机器都收到告诉:某个兄弟目录被删除,于是,所有人都晓得:它上船了。

新机器退出也是相似,所有机器收到告诉:新兄弟目录退出,highcount 又有了,对于第二点,咱们略微扭转一下,所有机器创立长期程序编号目录节点,每次选取编号最小的机器作为 master 就好。

Zookeeper 分布式锁(文件系统、告诉机制)

有了 zookeeper 的一致性文件系统,锁的问题变得容易。锁服务能够分为两类,一个是放弃独占,另一个是管制时序。

对于第一类,咱们将 zookeeper 上的一个 znode 看作是一把锁,通过 createznode 的形式来实现。所有客户端都去创立 /distribute_lock 节点,最终胜利创立的那个客户端也即领有了这把锁。用完删除掉本人创立的 distribute_lock 节点就开释出锁。

对于第二类,/distribute_lock 曾经事后存在,所有客户端在它上面创立长期程序编号目录节点,和选 master 一样,编号最小的取得锁,用完删除,顺次不便。

Zookeeper 队列治理(文件系统、告诉机制)

两种类型的队列:

(1)同步队列,当一个队列的成员都聚齐时,这个队列才可用,否则始终期待所有成员达到。

(2)队列依照 FIFO 形式进行入队和出队操作。

第一类,在约定目录下创立长期目录节点,监听节点数目是否是咱们要求的数目。

第二类,和分布式锁服务中的管制时序场景基本原理统一,入列有编号,入列按编号。在特定的目录下创立 PERSISTENT_SEQUENTIAL 节点,创立胜利时 Watcher 告诉期待的队列,队列删除序列号最小的节点用以生产。此场景下 Zookeeper 的 znode 用于音讯存储,znode 存储的数据就是音讯队列中的音讯内容,SEQUENTIAL 序列号就是音讯的编号,按序取出即可。因为创立的节点是长久化的,所以不用放心队列音讯的失落问题。

29. Zookeeper 都有哪些性能?

  1. 集群治理:监控节点存活状态、运行申请等;
  2. 主节点选举:主节点挂掉了之后能够从备用的节点开始新一轮选主,主节点选举说的就是这个选举的过程,应用 Zookeeper 能够帮助实现这个过程;
  3. 分布式锁:Zookeeper 提供两种锁:独占锁、共享锁。独占锁即一次只能有一个线程应用资源,共享锁是读锁共享,读写互斥,即能够有多线线程同时读同一个资源,如果要应用写锁也只能有一个线程应用。Zookeeper 能够对分布式锁进行管制。
  4. 命名服务:在分布式系统中,通过应用命名服务,客户端利用可能依据指定名字来获取资源或服务的地址,提供者等信息。

30. 说一下 Zookeeper 的告诉机制?

client 端会对某个 znode 建设一个 watcher 事件,当该 znode 发生变化时,这些 client 会收到 zk 的告诉,而后 client 能够依据 znode 变动来做出业务上的扭转等。

31. Zookeeper 和 Dubbo 的关系?

Zookeeper 的作用:

zookeeper 用来注册服务和进行负载平衡,哪一个服务由哪一个机器来提供必须让调用者晓得,简略来说就是 ip 地址和服务名称的对应关系。当然也能够通过硬编码的形式把这种对应关系在调用方业务代码中实现,然而如果提供服务的机器挂掉调用者无奈通晓,如果不更改代码会持续申请挂掉的机器提供服务。zookeeper 通过心跳机制能够检测挂掉的机器并将挂掉机器的 ip 和服务对应关系从列表中删除。至于反对高并发,简略来说就是横向扩大,在不更改代码的状况通过增加机器来进步运算能力。通过增加新的机器向 zookeeper 注册服务,服务的提供者多了能服务的客户就多了。

dubbo:

是治理中间层的工具,在业务层到数据仓库间有十分多服务的接入和服务提供者须要调度,dubbo 提供一个框架解决这个问题。
留神这里的 dubbo 只是一个框架,至于你架子上放什么是齐全取决于你的,就像一个汽车骨架,你须要配你的轮子引擎。这个框架中要实现调度必须要有一个分布式的注册核心,贮存所有服务的元数据,你能够用 zk,也能够用别的,只是大家都用 zk。

zookeeper 和 dubbo 的关系:

Dubbo 的将注册核心进行形象,它能够外接不同的存储媒介给注册核心提供服务,有 ZooKeeper,Memcached,Redis 等。

引入了 ZooKeeper 作为存储媒介,也就把 ZooKeeper 的个性引进来。首先是负载平衡,单注册核心的承载能力是无限的,在流量达到肯定水平的时 候就须要分流,负载平衡就是为了分流而存在的,一个 ZooKeeper 群配合相应的 Web 利用就能够很容易达到负载平衡;资源同步,单单有负载平衡还不 够,节点之间的数据和资源须要同步,ZooKeeper 集群就人造具备有这样的性能;命名服务,将树状构造用于保护全局的服务地址列表,服务提供者在启动 的时候,向 ZooKeeper 上的指定节点 /dubbo/${serviceName}/providers 目录下写入本人的 URL 地址,这个操作就实现了服务的公布。其余个性还有 Mast 选举,分布式锁等。

本文由 mdnice 多平台公布

正文完
 0