zookeeper的应用场景

数据发布与订阅(配置中心)

配置中心,就是发布者将数据发布到zk节点上,供订阅者动态获取数据,实现配置信息的集中管理和动态更新。例如全局的配置信息、服务式服务框架的服务地址列表就非常适合使用。

应用中用到的一些配置信息放到zk上进行集中管理。这类场景通常是这样:应用在启动的时候会主动来获取一次配置信息,同时,在节点上注册一个watcher,这样一来,以后每次配置有更新的时候,都会实时通知到订阅的客户端,从而达到获取最新配置信息的目的。

分布式搜索服务中,索引的元信息和服务器集群机器的节点状态存放到zk的一些指定的节点,供各个客户端订阅使用。

分布式日志收集系统。这个系统的核心工作是收集分布在不同机器的日志。收集器通常是按照应用来分配收集任务单元,因此需要在zk上创建一个以应用名为path的节点p,并将这个应用的所有机器以子节点的形式注册到节点p上,这样一来就能够实现机器变动的时候,能够实时通知到收集器调整任务分配。

在上面提到的应用场景中,有个默认前提:数据量很小,但是数据更新可能会比较快的场景。

负载均衡

在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务提供方都会部署多份,达到负载均衡。而消费者就要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者、消费者负载均衡。

kafkaMQ和阿里的MetaQ都是通过zk来做到生产者、消费者的负载均衡。

生产者负载均衡:以MetaQ为例,MetaQ发送消息的时候,生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息,因此metaq在运行中,会把所有broker和对应的分区信息全部注册到zk指定的节点上,默认的策略是一个依次轮询的过程,生产者通过zk获取分区列表之后,会按照brokerid和partition的顺序排列组织成一个有序的分区列表,发送的时候会按照从头到尾循环往复的方式选择一个分区来发送消息。

消费者负载均衡:metaq的消息策略是,每个分区针对同一个group只挂载一个消费者。如果同一个group的消费者数目大于分区数目,则多出来的消费者将不参与消费。如果同一个group的消费者数目小于分区数,则有部分消费者需要额外承担消费任务。在某个消费者故障或者重启等情况下,其他消费者会感知到这一变化(通过zk watch消费者列表),然后重新进行负载均衡,保证所有的分区都有消费者进行消费。

命名服务

命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定的名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等—-这些我们都可以统称他们为名字。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用zookeeper提供的创建节点的API,能够很容易创建一个全局唯一的path,这个path就可以作为一个名字。

Dubbo就使用zookeeper来作为其命名服务,维护全局的服务地址列表。在Dubbo的实现中:服务提供者在启动的时候,向zookeeper上的指定节点/dubbo/${serviceName}/providers目录下写入自己的URL地址,服务的消费者启动时向/dubbo/${serviceName}/consumers目录下写入自己的URL地址。注意,所有向zookeeper上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。

另外,Dubbo还有针对服务粒度的监控,方法是订阅/dubbo/${serviceName}目录下的所有提供者和消费者信息。

分布式通知/协调

Zookeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知和协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理。

另一种心跳检测机制,检测系统和被检测系统之间并不直接关联,而是通过zk上某个节点关联,大大减少系统耦合。另一种系统调度模式:某系统由控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台的一些操作,实际上是修改了zk上的某些节点的状态,而zk就把这些变化通知给那些注册watcher的客户端,即推送系统,于是,作出相应的推送任务。

另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时的将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。

总之,使用zk来进行分布式通知和协调能够大大降低系统之间的耦合。

集群管理与Master选举

集群机器监控:这通常用于那种对集群中机器状态、机器在线率有较高要求的场景,能够快速对集群中机器状态变化作出响应。这样的场景中,往往有一个监控系统,实时监测集群机器是否还存活。过去的做法通常是:监控系统使用某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”,这种做法可行,但是存在两个比较明显的不足:

1、集群中机器有变动时(增加或减少机器),牵连修改的东西比较多。

2、有一定的延时。

利用zk有两个特性,就可以实现另一种集群机器存活监控系统:

1、客户端在节点x上注册一个watcher,那么,如果x的子节点变化了,会通知该客户端。

2、创建临时节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。

例如:监控系统在/clusterServers节点上注册一个watcher,以后每动态加机器,那么就往/clusterServers下创建一个临时节点/clusterServers/${hostName},这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。

Master选举则是zookeeper最为经典的应用场景了。在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑,往往只需要让整个集群中的某一台机器执行,其余机器分享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下碰到的问题。

另外,这种场景演化一下,就是动态master选举。这就要用到EPHEMERAL_SEQUENTIAL类型节点的特性了。

上文中提到,所有客户端创建请求,最终只有一个能够创建成功,这里稍变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在zookeeper上创建结果的一种可能情况是这样:/currentMaster/{sessionid}-1、/currentMaster/{sessionid}-2、/currentMaster/{sessionid}-3……每次选取序列号最小的那个机器作为master,如果这个机器挂了,由他创建的节点会马上消失,那么之后最小的那个机器就是master了。

在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的master来进行全量索引的生成,然后同步到集群中其他机器。另外,master选举的容灾措施是,可以随时进行手动指定master,就是说应用在zk无法获取master信息时,可以通过比如http方式,向一个地方获取master。在Hbase中,也是使用zk在实现动态HMaster的选举。在HBase实现中,会在zk上存储一些ROOT表的地址和HMaster的地址,HRegionServer也会把自己以临时节点的方式注册到zookeeper中,是的HMaster可以随时感知到各个HRegionServer的存活状态,同时,一旦HMaster出现问题,会重新选举出一个HMaster来运行,从而避免HMaster的单点问题。

分布式锁

分布式锁,这个主要得益于zk为我们保证了数据的强一致性。锁服务可以分为两类,一个是保持独占,一个是控制时序。

所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以获得这把锁。通常的做法是把zk上的一个znode看做是一把锁,通过create znode的方式来实现。所有客户端都去创建这个节点,最终成功创建的那个客户端也即拥有了这把锁。

控制时序,就是所有试图获取这个锁的客户端,最终都会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里的znode已预先存在,客户端在它下面创建临时有序节点,zk的父节点维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。

分布式队列

简单讲,有两种队列,一种是常规的先进先出队列,另一种是要等到队列成员聚齐以后才统一按序执行,对于第一种先进先出队列和分布式锁服务中的控制时序场景基本原理一致,不再赘述。

第二种队列其实是在FIFO队列的基础上做了一个增强。通常可以在/queue这个znode下预先建立一个/queue/num节点,并且赋值为n,表示队列大小,之后每次有队列成员加入后,就判断下是否已经达到队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务Task A,需要在很多子任务完成情况下才能执行。这个时候,凡是其中一个子任务完成,就去/taskList下建立自己的临时时序节点,当/taskList发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。

注:该文转自http://jm.taobao.org/2011/10/08/1232/

    原文作者:programer100
    原文地址: https://www.jianshu.com/p/7ab814920fab
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞