ZooKeeper

120次阅读

共计 5319 个字符,预计需要花费 14 分钟才能阅读完成。

分布式系统

A distributed system is de ned as a software system that is composed of independent computing entities linked together by a computer network whose components communicate and coordinate with each other to achieve a common goal.
分布式系统是由独立的计算机通过网络连接在一起,并且通过一些组件来相互交流和协作来完成一个共同的目标。

分布式系统特性

  • 资源共享,例如存储空间,计算能力,数据,和服务等等
  • 扩展性,从软件和硬件上增加系统的规模
  • 并发性,多个用户同时访问
  • 性能,确保当负载增加的时候,系统想要时间不会有影响
  • 容错性,尽管一些组件暂时不可用了,整个系统仍然是可用的
  • API 抽象,系统的独立组件对用户隐藏,仅仅暴露服务

ZooKeeper

Zookeeper 是一个分布式开源框架,提供了协调分布式应用的基本服务,它向外部应用暴露一组通用服务——分布式同步(Distributed Synchronization)、命名服务(Naming Service)、集群维护(Group Maintenance)等,简化分布式应用协调及其管理的难度,提供高性能的分布式服务。ZooKeeper 本身可以以单机模式安装运行,不过它的长处在于通过分布式 ZooKeeper 集群(一个 Leader,多个 Follower),基于一定的策略来保证 ZooKeeper 集群的稳定性和可用性,从而实现分布式应用的可靠性。
1、Zookeeper 是为别的分布式程序服务的
2、Zookeeper 本身就是一个分布式程序(只要有半数以上节点存活,zk 就能正常服务)
3、Zookeeper 所提供的服务涵盖:主从协调、服务器节点动态上下线、统一配置管理、分布式共享锁、统一名称服务等
4、虽然说可以提供各种服务,但是 zookeeper 在底层其实只提供了两个功能:

  • 管理 (存储,读取) 用户程序提交的数据(类似 namenode 中存放的 metadata)
  • 并为用户程序提供数据节点监听服务;

Zookeeper 特性

  • Zookeeper:一个 leader,多个 follower 组成的集群
  • 全局数据一致:每个 server 保存一份相同的数据副本,client 无论连接到哪个 server,数据都是一致的
  • 分布式读写,更新请求转发,由 leader 实施
  • 更新请求顺序进行,来自同一个 client 的更新请求按其发送顺序依次执行
  • 数据更新原子性,一次数据更新要么成功,要么失败
  • 实时性,在一定时间范围内,client 能读到最新数据

Zookeeper 数据结构

  • 层次化的目录结构,命名符合常规文件系统规范(类似文件系统)

  • 每个节点在 zookeeper 中叫做 znode, 并且其有一个唯一的路径标识
  • 节点 Znode 可以包含数据和子节点(但是 EPHEMERAL 类型的节点不能有子节点)

Zookeeper 节点类型

  • 短暂(ephemeral)(create -e /app1/test1“test1”客户端断开连接 zk 删除 ephemeral 类型节点)
  • 持久(persistent)(create -s /app1/test2“test2”客户端断开连接 zk 不删除 persistent 类型节点)

Znode 目录节点

  • PERSISTENT
  • PERSISTENT_SEQUENTIAL(持久序列 /test0000000019)
  • EPHEMERAL
  • EPHEMERAL_SEQUENTIAL
    (默认是 persistent)

创建 znode 时设置顺序标识,znode 名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护;在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序

Zookeeper 应用场景

数据发布与订阅(配置中心)

发布与订阅模型,即所谓的配置中心,顾名思义就是发布者将数据发布到 ZK 节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息,服务式服务框架的服务地址列表等就非常适合使用。

负载均衡

这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就须要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡。
消息中间件中发布者和订阅者的负载均衡,linkedin 开源的 KafkaMQ 和阿里开源的 metaq 都是通过 zookeeper 来做到生产者、消费者的负载均衡。这里以 metaq 为例如讲下:
生产者负载均衡:metaq 发送消息的时候,生产者在发送消息的时候必须选择一台 broker 上的一个分区来发送消息,因此 metaq 在运行过程中,会把所有 broker 和对应的分区信息全部注册到 ZK 指定节点上,默认的策略是一个依次轮询的过程,生产者在通过 ZK 获取分区列表之后,会按照 brokerId 和 partition 的顺序排列组织成一个有序的分区列表,发送的时候按照从头到尾循环往复的方式选择一个分区来发送消息。
消费负载均衡:在消费过程中,一个消费者会消费一个或多个分区中的消息,但是一个分区只会由一个消费者来消费。MetaQ 的消费策略是:

  1. 每个分区针对同一个 group 只挂载一个消费者。
  2. 如果同一个 group 的消费者数目大于分区数目,则多出来的消费者将不参与消费。
  3. 如果同一个 group 的消费者数目小于分区数目,则有部分消费者需要额外承担消费任务。

在某个消费者故障或者重启等情况下,其他消费者会感知到这一变化(通过 zookeeper watch 消费者列表),然后重新进行负载均衡,保证所有的分区都有消费者进行消费。

命名服务(Naming Service)

命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等——这些我们都可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用 ZK 提供的创建节点的 API,能够很容易创建一个全局唯一的 path,这个 path 就可以作为一个名称。
阿里巴巴集团开源的分布式服务框架 Dubbo 中使用 ZooKeeper 来作为其命名服务,维护全局的服务地址列表,点击这里查看 Dubbo 开源项目。在 Dubbo 实现中:
服务提供者在启动的时候,向 ZK 上的指定节点 /dubbo/${serviceName}/providers 目录下写入自己的 URL 地址,这个操作就完成了服务的发布。
服务消费者启动的时候,订阅 /dubbo/${serviceName}/providers 目录下的提供者 URL 地址,并向 /dubbo/${serviceName} /consumers 目录下写入自己的 URL 地址。
注意,所有向 ZK 上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。另外,Dubbo 还有针对服务粒度的监控,方法是订阅 /dubbo/${serviceName}目录下所有提供者和消费者的信息。

分布式通知 / 协调

ZooKeeper 中特有 watcher 注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对 ZK 上同一个 znode 进行注册,监听 znode 的变化(包括 znode 本身内容及子节点的),其中一个系统 update 了 znode,那么另一个系统能够收到通知,并作出相应处理

  1. 另一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过 zk 上某个节点关联,大大减少系统耦合。
  2. 另一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了 ZK 上某些节点的状态,而 ZK 就把这些变化通知给他们注册 Watcher 的客户端,即推送系统,于是,作出相应的推送任务。
  3. 另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到 zk 来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。

总之,使用 zookeeper 来进行分布式通知和协调能够大大降低系统之间的耦合

集群管理与 Master 选举

1. 集群机器监控:这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如 ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”。这种做法可行,但是存在两个比较明显的问题:

  • 集群中机器有变动的时候,牵连修改的东西比较多。
  • 有一定的延时。

利用 ZooKeeper 有两个特性,就可以实现另一种集群机器存活性监控系统:

  • 客户端在节点 x 上注册一个 Watcher,那么如果 x 的子节点变化了,会通知该客户端。
  • 创建 EPHEMERAL 类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。

例如,监控系统在 /clusterServers 节点上注册一个 Watcher,以后每动态加机器,那么就往 /clusterServers 下创建一个 EPHEMERAL 类型的节点:/clusterServers/{hostname}. 这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。
2.Master 选举则是 zookeeper 中最为经典的应用场景了。
在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络 I / O 处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个 master 选举便是这种场景下的碰到的主要问题。
利用 ZooKeeper 的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster 节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群选取了。
另外,这种场景演化一下,就是动态 Master 选举。这就要用到 EPHEMERAL_SEQUENTIAL 类型节点的特性了。
上文中提到,所有客户端创建请求,最终只有一个能够创建成功。在这里稍微变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在 ZK 上创建结果的一种可能情况是这样:/currentMaster/{sessionId}-1 ,/currentMaster/{sessionId}-2,/currentMaster/{sessionId}-3 ….. 每次选取序列号最小的那个机器作为 Master,如果这个机器挂了,由于他创建的节点会马上小时,那么之后最小的那个机器就是 Master 了。

  • 在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的 Master 来进行全量索引的生成,然后同步到集群中其它机器。另外,Master 选举的容灾措施是,可以随时进行手动指定 master,就是说应用在 zk 在无法获取 master 信息时,可以通过比如 http 方式,向一个地方获取 master。
  • 在 Hbase 中,也是使用 ZooKeeper 来实现动态 HMaster 的选举。在 Hbase 实现中,会在 ZK 上存储一些 ROOT 表的地址和 HMaster 的地址,HRegionServer 也会把自己以临时节点(Ephemeral)的方式注册到 Zookeeper 中,使得 HMaster 可以随时感知到各个 HRegionServer 的存活状态,同时,一旦 HMaster 出现问题,会重新选举出一个 HMaster 来运行,从而避免了 HMaster 的单点问题

分布式锁

分布式锁,这个主要得益于 ZooKeeper 为我们保证了数据的强一致性。锁服务可以分为两类,一个是 保持独占,另一个是 控制时序。

  1. 所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把 zk 上的一个 znode 看作是一把锁,通过 create znode 的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。
  2. 控制时序,就是所有视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里 /distributelock 已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERALSEQUENTIAL 来指定)。Zk 的父节点(/distribute_lock)维持一份 sequence, 保证子节点创建的时序性,从而也形成了每个客户端的全局时序。
正文完
 0

Zookeeper

120次阅读

共计 469 个字符,预计需要花费 2 分钟才能阅读完成。

什么是 Zookeeper?百科上面怎么说的?

Zookeeper 是由 Apache 的一个顶级项目, 主要用来做分布式集群服务的注册与发现。

意思是新建一个服务了,把它 "写入"Zookeeper。然后服务有什么变动或者故障啦,它也能通过某种机制及时 “发现”。从而告诉其他小伙伴,这个服务不可用啦,不要去调它啦,Zookeeper 就是专门干这样的事。

Zookeeper 听说有个 session 机制,如何理解?
启动一个客户端,这个客户端初始化的时候就会 connecting,连上了客户端就会处于 connected 的状态。这样就建立了一个 session,然后通过心跳机制(客户端向服务端定时发送 ping 请求)保持 session。如果检查心跳结束,即没人 ping 啦,那肯定知道是这个服务死了,就会设置 session 为过期,把这个节点的所有数据清掉。Zookeeper 服务端就是通过这种方式来知道客户端是否还活着的。

只有 leader 才有权写入,follower 只能读取,然后通过某种方式同步一下数据。

Zookeeper 集群什么时候才要选举?以及选举决议的办法?

正文完
 0

zookeeper

120次阅读

共计 8193 个字符,预计需要花费 21 分钟才能阅读完成。

分布式协调服务 -zookeeper
分布式环境的特点
分布性
并发性
程序运行过程中,并发性操作是很常见的。比如同一个分布式系统中的多个节点,同时访问一个共享资源。数据库、分布式存储
无序性
进程之间的消息通信,会出现顺序不一致问题
分布式环境下面临的问题
网络通信
网络本身的不可靠性,因此会涉及到一些网络通信问题
网络分区 (脑裂)
当网络发生异常导致分布式系统中部分节点之间的网络延时不断增大,最终导致组成分布式架构的所有节点,只有部分节点能够正常通信
三态
在分布式架构里面,成功、失败、超时
分布式事务
ACID(原子性、一致性、隔离性、持久性)
中心化和去中心化
冷备或者热备
分布式架构里面,很多的架构思想采用的是:当集群发生故障的时候,集群中的人群会自动“选举”出一个新的领导。
最典型的是:zookeeper / etcd
经典的 CAP/BASE 理论
CAP
C(一致性 Consistency): 所有节点上的数据,时刻保持一致
可用性(Availability):每个请求都能够收到一个响应,无论响应成功或者失败
分区容错(Partition-tolerance):表示系统出现脑裂以后,可能导致某些 server 与集群中的其他机器失去联系
CP / AP
CAP 理论仅适用于原子读写的 Nosql 场景,不适用于数据库系统
BASE
基于 CAP 理论,CAP 理论并不适用于数据库事务(因为更新一些错误的数据而导致数据出现紊乱,无论什么样的数据库高可用方案都是
徒劳),虽然 XA 事务可以保证数据库在分布式系统下的 ACID 特性,但是会带来性能方面的影响;
eBay 尝试了一种完全不同的套路,放宽了对事务 ACID 的要求。提出了 BASE 理论
Basically available:数据库采用分片模式,把 100W 的用户数据分布在 5 个实例上。如果破坏了其中一个实例,仍然可以保证
80% 的用户可用
soft-state:在基于 client-server 模式的系统中,server 端是否有状态,决定了系统是否具备良好的水平扩展、负载均衡、故障恢复等特性。
Server 端承诺会维护 client 端状态数据,这个状态仅仅维持一小段时间, 这段时间以后,server 端就会丢弃这个状态,恢复正常状态
Eventually consistent:数据的最终一致性
初步认识 zookeeper
zookeeper 是一个开源的分布式协调服务,是由雅虎创建的,基于 google chubby。

zookeeper 是什么
分布式数据一致性的解决方案
zookeeper 能做什么

​ 数据的发布 / 订阅(配置中心:disconf)
​ 负载均衡(dubbo 利用了 zookeeper 机制实现负载均衡)
​ 命名服务
​ master 选举 (kafka、hadoop、hbase)
​ 分布式队列
​ 分布式锁

zookeeper 的特性
顺序一致性
​ 从同一个客户端发起的事务请求,最终会严格按照顺序被应用到 zookeeper 中
原子性
​ 所有的事务请求的处理结果在整个集群中的所有机器上的应用情况是一致的,也就是说,要么整个集群中的所有机器都成功应用了某一事务、要么全都不应用
可靠性
​ 一旦服务器成功应用了某一个事务数据,并且对客户端做了响应,那么这个数据在整个集群中一定是同步并且保留下来的
实时性
​ 一旦一个事务被成功应用,客户端就能够立即从服务器端读取到事务变更后的最新数据状态;(zookeeper 仅仅保证在一定时间内,近实时)
zookeeper 安装
单机环境安装

下载 zookeeper 的安装包 http://apache.fayea.com/zooke…

解压 zookeeper tar -zxvf zookeeper-3.4.10.tar.gz

cd 到 ZK_HOME/conf , copy 一份 zoo.cfg

​ cp zoo_sample.cfg zoo.cfg
sh zkServer.sh
​ {start|start-foreground|stop|restart|status|upgrade|print-cmd}
sh zkCli.sh -server ip:port 默认端口 2181
127.0.0.1:2181
zkServer.sh start-foreground

集群环境
建议使用奇数
对于复制模式,至少需要三台服务器,强烈建议您使用奇数个服务器。如果您只有两台服务器,那么您处于这样的情况:如果其中一台服务器出现故障,则没有足够的机器来构成多数仲裁。两台服务器本质上 不如 单一服务器稳定,因为有两个单点故障。

zookeeper 集群, 包含三种角色:
leader :
​ 所有写和更改操作接受,转发到其他节点,接受所有 Follower 的提案请求并统一协调发起提案的投票,负责与所有的 Follower 进行内部的数据交换 (同步)
follower :
​ 直接为客户端服务并参与提案的投票, 同时与 Leader 进行数据交换 (同步)
observer:
​ 直接为客户端服务但不参与提案的投票, 同时也与 Leader 进行数据交换 (同步)
observer
observer 是一种特殊的 zookeeper 节点。可以帮助解决 zookeeper 的扩展性(如果大量客户端访问我们 zookeeper 集群,需要增加 zookeeper 集群机器数量。从而增加 zookeeper 集群的性能。导致 zookeeper 写性能下降,zookeeper 的数据变更需要半数以上服务器投票通过。造成网络消耗增加投票成本)

observer 不参与投票。只接收投票结果。
不属于 zookeeper 的关键部位。

在 zoo.cfg 里面增加在集群中的每一台服务器必须感知其他服务器(1,2,3 表示 id, 取值范围 1-255)
peerType=observer
server.1=host:2181:3181:observer
server.2=host:2181:3181
server.3=host:2181:3181
quorumListenOnAllIPs=true

第一步:修改配置文件
​ server.id=host:port:port
​ id 的取值范围:1~255;用 id 来标识该机器在集群中的机器序号
​ 2181 是 zookeeper 的端口;//3306
​ 3181 表示 leader 选举的端口
​ server.1=host:2181:3181
​ server.2=host:2181:3181
​ server.3=host:2181:3181
第二步:创建 myid
​ 在每一个服务器的 dataDir 目录下创建一个 myid 的文件,文件就一行数据,数据内容是每台机器对应的 server ID 的数字
第三步:启动 zookeeper

分布式系统里面的特点
分布式系统架构存在的问题
中心化和去中心化
CAP 和 BASE
zookeeper 的安装 单机环境安装 / 集群环境安装
zookeeper 的特性

1. zookeeper 的客户端使用
2. zoo.cfg 里面配置信息的讲解
3. zookeeper 的一些常见概念模型
4. zookeeper java 客户端的使用
集群的角色:
leader :
follower
observer: 避免写性能下降,不需要参与写
集群的搭建
修改 zoo.cfg
​ 129/135/136
​ server.id=ip:port:port
​ server.1=host:2888:3181 2888 表示 follower 节点与 leader 节点交换信息的端口号 3181 如果 leader 节点挂掉了, 需要一个端口来重新选举。
​ server.2=host:2888:3181
​ server.3=host:2888:3181
zoo.cfg 中有一个 dataDir = /tmp/zookeeper
​ $dataDir/myid 添加一个 myid 文件。
启动服务

如果需要增加 observer 节点
zoo.cfg 中 增加 ;peerType=observer
server.1=host:2888:3181
server.2=host:2888:3181
server.3=host:2888:3181:observer
zoo.cfg 配置文件分析
tickTime=2000 zookeeper 中最小的时间单位长度(ms)
initLimit=10 follower 节点启动后与 leader 节点完成数据同步的时间
syncLimit=5 leader 节点和 follower 节点进行心跳检测的最大延时时间
dataDir=/tmp/zookeeper 表示 zookeeper 服务器存储快照文件的目录
dataLogDir 表示配置 zookeeper 事务日志的存储路径,默认指定在 dataDir 目录下
clientPort 表示客户端和服务端建立连接的端口号:2181
zookeeper 中的一些概念
数据模型
zookeeper 的数据模型和文件系统类似,每一个节点称为:znode. 是 zookeeper 中的最小数据单元。每一个 znode 上都可以保存数据和挂载子节点。从而构成一个层次化的属性结构
节点特性
持久化节点:节点创建后会一直存在 zookeeper 服务器上,直到主动删除
持久化有序节点:每个节点都会为它的一级子节点维护一个顺序
临时节点:临时节点的生命周期和客户端的会话保持一致。当客户端会话失效,该节点自动清理, 临时节点下面不能挂子节点
临时有序节点:在临时节点上多勒一个顺序性特性
会话

Watcher
zookeeper 提供了分布式数据发布 / 订阅,zookeeper 允许客户端向服务器注册一个 watcher 监听。当服务器端的节点触发指定事件的时候
会触发 watcher。服务端会向客户端发送一个事件通知 watcher 的通知是一次性,一旦触发一次通知后,该 watcher 就失效
ACL
zookeeper 提供控制节点访问权限的功能,用于有效的保证 zookeeper 中数据的安全性。避免误操作而导致系统出现重大事故。
CREATE
READ
WRITE
DELETE
ADMIN
zookeeper 的命令操作
1. create [-s]【-e】path data acl
​ -s 表示节点是否有序
​ -e 表示是否为临时节点
​ 默认情况下,是持久化节点
​ path 需要 / 开头
2. get path [watch]
​ 获得指定 path 的信息
3.set path data [version]
​ 修改节点 path 对应的 data
​ 乐观锁的概念
​ 每个节点创建好之后会有一个 dataversion,默认是 0,如果后续此值更改之后,dataversion 会更改,我们可以通过 version 来保证乐观锁
​ 数据库里面有一个 version 字段去控制数据行的版本号
4.delete path [version]
​ 删除节点
stat 信息
​ cversion = 0 子节点的版本号
​ aclVersion = 0 表示 acl 的版本号,修改节点权限
​ dataVersion = 1 表示的是当前节点数据的版本号
​ czxid 节点被创建时的事务 ID
​ mzxid 节点最后一次被更新的事务 ID
​ pzxid 当前节点下的子节点最后一次被修改时的事务 ID
​ ctime = Sat Aug 05 20:48:26 CST 2017 创建时间
​ mtime = Sat Aug 05 20:48:50 CST 2017 修改时间
​ cZxid = 0x500000015
​ ctime = Sat Aug 05 20:48:26 CST 2017
​ mZxid = 0x500000016
​ mtime = Sat Aug 05 20:48:50 CST 2017
​ pZxid = 0x500000015
​ cversion = 0
​ dataVersion = 1
​ aclVersion = 0
​ ephemeralOwner = 0x0 创建临时节点的时候,会有一个 sessionId。该值存储的就是这个 sessionid, 客户端有一定时间生效时间,具有重试机制,过一段时间判断是否有会话,如果没有,则删除
​ dataLength = 3 数据值长度
​ numChildren = 0 子节点数
java API 的使用
导入 jar 包
<dependency>    <groupId>org.apache.zookeeper</groupId>    <artifactId>zookeeper</artifactId>    <version>3.4.8</version></dependency>
public class CreateNodeDemo implements Watcher {
private final static String CONNECT_STRING = “host:2181,” +
“host:2181,” +
“host:2181”;
private static CountDownLatch countDownLatch = new CountDownLatch(1);

private static ZooKeeper zooKeeper = null;
private static Stat stat = new Stat();

public static void main(String[] args) throws IOException, InterruptedException, KeeperException {
zooKeeper = new ZooKeeper(CONNECT_STRING, 5000, new CreateNodeDemo());
countDownLatch.await();
System.out.println(zooKeeper.getState());
String path = zooKeeper.create(
“/java1”, “123”.getBytes(),
ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
//watcher 是一次性的, 所以使用一次之后需要重新注册
zooKeeper.getData(“/java1”, true, stat);
System.out.println(“ 节点创建成功:” + path);
zooKeeper.setData(“/java1”, “231”.getBytes(), -1);
zooKeeper.delete(“/java1”, -1);
zooKeeper.create(“/java1/dd”, “da”.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
Thread.sleep(3000);

List<String> children = zooKeeper.getChildren(“/java1”, true);
for (String child : children) {
System.out.println(child);
}

// 权限模式
}

public void process(WatchedEvent watchedEvent) {
if (watchedEvent.getState() == Event.KeeperState.SyncConnected) {

if (watchedEvent.getType() == watchedEvent.getType() && null == watchedEvent.getPath()) {
countDownLatch.countDown();
System.out.println(watchedEvent.getState() + “–>” + watchedEvent.getType());
}
if (watchedEvent.getType() == Event.EventType.NodeCreated) {
try {
System.out.println(“ 创建节点 ” + watchedEvent.getPath() + “ 改变后的值是 ” + zooKeeper.getData(watchedEvent.getPath(), true, stat));
} catch (KeeperException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
if (watchedEvent.getType() == Event.EventType.NodeDeleted) {
System.out.println(“ 删除节点 ” + watchedEvent.getPath());
}
if (watchedEvent.getType() == Event.EventType.NodeChildrenChanged) {
try {
System.out.println(“ 子节点改变 ” + watchedEvent.getPath() + “ 改变后的值是 ” + zooKeeper.getData(watchedEvent.getPath(), true, stat));
} catch (KeeperException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
if (watchedEvent.getType() == Event.EventType.NodeDataChanged) {
System.out.println(“————–“);
try {
System.out.println(“ 数据改变 ” + watchedEvent.getPath() + “ 改变后的值是 ” + zooKeeper.getData(watchedEvent.getPath(), true, stat));
} catch (KeeperException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}

System.out.println(watchedEvent.getPath());
System.out.println(watchedEvent.getType());
}
}
权限控制模式
schema:授权对象
ip : host
Digest : username:password
world : 开放式的权限控制模式,数据节点的访问权限对所有用户开放。world:anyone
super:超级用户,可以对 zookeeper 上的数据节点进行操作
连接状态
KeeperStat.Expired 在一定时间内客户端没有收到服务器的通知,则认为当前的会话已经过期了。
KeeperStat.Disconnected 断开连接的状态
KeeperStat.SyncConnected 客户端和服务器端在某一个节点上建立连接,并且完成一次 version、zxid 同步
KeeperStat.authFailed 授权失败
事件类型
NodeCreated 当节点被创建的时候,触发
NodeChildrenChanged 表示子节点被创建、被删除、子节点数据发生变化
NodeDataChanged 节点数据发生变化
NodeDeleted 节点被删除
None 客户端和服务器端连接状态发生变化的时候,事件类型就是 None
zkclient
<dependency>
<groupId>com.101tec</groupId>
<artifactId>zkclient</artifactId>
<version>0.10</version>
</dependency>
提供了递归创建父节点递归删除节点的功能
curator
Curator 本身是 Netflix 公司开源的 zookeeper 客户端;
curator 提供了各种应用场景的实现封装
curator-framework 提供了 fluent 风格 api,
curator-replice 提供了实现封装
curator 连接的重试策略
ExponentialBackoffRetry() 衰减重试
RetryNTimes 指定最大重试次数
RetryOneTime 仅重试一次
RetryUnitilElapsed 一直重试知道规定的时间
zookeeper 的实际应用场景
zookeeper 能够实现哪些场景
订阅发布
watcher 机制
统一配置管理(disconf)
分布式锁
redis
​ setnx
zookeeper 节点特性
数据库
负载均衡
ID 生成器
分布式队列
统一命名服务
master 选举
分布式锁
master 选举

正文完
 0