利用Zookeeper实现分布式应用的Leader选举

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: 利用Zookeeper实现分布式应用的Leader选举

概述


在分布式系统中,一个应用通常需要部署多个节点,这些节点之间可能存在这一主多从的运行模式。也就是说从这些节点中需要选择出一个主节点,其他为从节点,主节点可以做些特殊的事情。当主节点宕机后,选择一个从节点成为主节点。为了实现这样的功能,我们可以利用Zookeeper的特性来实现,本文使用Apache Curator框架提供的两种选举策略来实现。


LeaderLatch策略


实现思路


该策略通过Zookeeper的临时有序节点和监听器特性实现,大致实现思路如下:

1671160492831.jpg

  1. 不同节点在选举主题下创建临时有序节点
  2. 排在第一个的节点成为leader
  3. 后续节点设置对前一个节点的监听
  4. 如果Leader节点挂了,后续节点依照顺序成为Leader节点


关键API


  1. org.apache.curator.framework.recipes.leader.LeaderLatch

说明: 用来进行leader选择的关键类


关键方法:

//调用start方法开始抢主
void start()
//调用close方法释放leader权限
void close()
//await方法阻塞线程,尝试获取leader权限,但不一定成功,超时失败
boolean await(long, java.util.concurrent.TimeUnit)
//判断是否拥有leader权限
boolean hasLeadership()


例子演示


public class LeaderLatchTest {
    // zk地址
    private static final String CONNECT_STR = "localhost:2181";
    // leader的path
    private static final String LEADER_PATH = "/app/leader";
    public static void main(String[] args) {
        List<CuratorFramework> clients = Lists.newArrayList();
        List<LeaderLatch> leaderLatches = Lists.newArrayList();
        try {
            // 模拟10个节点
            for(int i=0; i<10; i++) {
                // 创建客户端
                CuratorFramework client = CuratorFrameworkFactory.newClient(CONNECT_STR, new ExponentialBackoffRetry(1000, 3));
                clients.add(client);
                // 创建leaderLatch
                LeaderLatch leaderLatch = new LeaderLatch(client, LEADER_PATH, "Client #" + i, LeaderLatch.CloseMode.NOTIFY_LEADER);
                // 设置选主成功后触发的监听器
                leaderLatch.addListener(new LeaderLatchListener() {
                    @Override
                    public void isLeader() {
                        System.out.println("我是leader");
                    }
                    @Override
                    public void notLeader() {
                        System.out.println("我不是leader");
                    }
                });
                leaderLatches.add(leaderLatch);
                // 启动客户端
                client.start();
                // 启动leaderLatch
                leaderLatch.start();
            }
            // 等待一段时间,让选举leader成功
            Thread.sleep(10000);
            // 当前的leader节点
            LeaderLatch currentLeaderLatch = null;
            // 遍历leaderLatch,找出主节点
            for (LeaderLatch leaderLatch : leaderLatches) {
                // 判断当前是不是主节点
                if (leaderLatch.hasLeadership()) {
                    currentLeaderLatch = leaderLatch;
                }
            }
            System.out.println("当前Leader是 " + currentLeaderLatch.getId());
            // 关闭Leader节点
            System.out.println("关闭Leader " + currentLeaderLatch.getId());
            currentLeaderLatch.close();
            // 从列表中移除
            leaderLatches.remove(currentLeaderLatch);
            // 等待一段时间,重新选择Leader
            System.out.println("重新选择Leader中.....");
            Thread.sleep(5000);
            for (LeaderLatch leaderLatch : leaderLatches) {
                // 判断当前是不是主节点
                if (leaderLatch.hasLeadership()) {
                    currentLeaderLatch = leaderLatch;
                }
            }
            System.out.println("重现选出的Leader是 " + currentLeaderLatch.getId());
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            for (LeaderLatch leaderLatch : leaderLatches) {
                CloseableUtils.closeQuietly(leaderLatch);
            }
            for (CuratorFramework client : clients) {
                CloseableUtils.closeQuietly(client);
            }
        }
    }
}

输出结果:

我是leader
当前Leader是 Client #2
关闭Leader Client #2
我不是leader
重新选择Leader中.....
我是leader
重现选出的Leader是 Client #9
我不是leader

正如预期,可以看到在Leader节点close后,会重新选择Leader。


LeaderSelector策略


与LeaderLatch不同, 通过LeaderSelector可以对领导权进行控制, 在适当的时候释放领导权,这样每个节点都有可能获得领导权。 而LeaderLatch一根筋到死, 除非调用close方法,否则它不会释放领导权。


实现思路


利用Curator中InterProcessMutex分布式锁进行抢主,抢到锁的即为Leader, 执行对应的业务逻辑。


关键API


  1. org.apache.curator.framework.recipes.leader.LeaderSelector

说明: 用于选择Leader的核心类

关键方法:

//开始抢leader
void start()
//在抢到leader权限并释放后,自动加入抢主队列,重新抢主
void autoRequeue()
  1. org.apache.curator.framework.recipes.leader.LeaderSelectorListener

说明: LeaderSelectorListener是LeaderSelector客户端节点成为Leader后回调的一个监听器,在takeLeadership()回调方法中编写获得Leader权利后的业务处理逻辑。

关键方法:

//抢主成功后的回调
void takeLeadership()


例子演示


public class LeaderSelectorTest {
    // zk地址
    private static final String CONNECT_STR = "localhost:2181";
    // leader的path
    private static final String LEADER_PATH = "/app/leaderSelector";
    public static void main(String[] args) {
        List<CuratorFramework> clients = Lists.newArrayListWithCapacity(10);
        List<LeaderSelectorClient> leaderSelectorClients = Lists.newArrayListWithCapacity(10);
        try {
            //启动10个zk客户端,每几秒进行一次leader选举
            for (int i = 0; i < 10; i++) {
                CuratorFramework client = CuratorFrameworkFactory.newClient(CONNECT_STR, new ExponentialBackoffRetry(1000, 3));
                client.start();
                clients.add(client);
                LeaderSelectorClient exampleClient = new LeaderSelectorClient(client, LEADER_PATH, "client#" + i);
                leaderSelectorClients.add(exampleClient);
                exampleClient.start();
            }
            //sleep 以观察抢主过程
            Thread.sleep(Integer.MAX_VALUE);
        }catch (Exception e) {
            e.printStackTrace();
        } finally {
            leaderSelectorClients.forEach(leaderSelectorClient -> {
                CloseableUtils.closeQuietly(leaderSelectorClient);
            });
            clients.forEach(client -> {
                CloseableUtils.closeQuietly(client);
            });
        }
    }
    static class LeaderSelectorClient extends LeaderSelectorListenerAdapter implements Closeable {
        private final String name;
        private final LeaderSelector leaderSelector;
        private final AtomicInteger leaderCount = new AtomicInteger(1);
        public LeaderSelectorClient(CuratorFramework client, String path, String name) {
            this.name = name;
            leaderSelector = new LeaderSelector(client, path, this);
            // 该方法能让客户端在释放leader权限后 重新加入leader权限的争夺中
            leaderSelector.autoRequeue();
        }
        public void start() throws IOException {
            leaderSelector.start();
        }
        @Override
        public void close() throws IOException {
            leaderSelector.close();
        }
        @Override
        public void takeLeadership(CuratorFramework client) throws Exception {
            // 抢到leader权限后sleep一段时间,并释放leader权限
            final int waitSeconds = (int) (5 * Math.random()) + 1;
            System.out.println(name + "成为leader.....");
            System.out.println(name + "成为leader的次数是" + leaderCount.getAndIncrement());
            try {
                Thread.sleep(TimeUnit.SECONDS.toMillis(waitSeconds));
            } catch (InterruptedException e) {
                System.err.println(name + " was interrupted.");
                Thread.currentThread().interrupt();
            } finally {
                System.out.println(name + "让出leader权限\n");
            }
        }
    }
}

结果:

client#0成为leader.....
client#0成为leader的次数是1
client#0让出leader权限
client#2成为leader.....
client#2成为leader的次数是1
client#2让出leader权限


总结


本篇讲了利用zookeeper实现的两种leader选择的模式,我们可以根据不同的引用场景选择不同的方案。

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
目录
相关文章
|
26天前
|
存储 SpringCloudAlibaba Java
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论。
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
|
2月前
|
存储 运维 NoSQL
分布式读写锁的奥义:上古世代 ZooKeeper 的进击
本文作者将介绍女娲对社区 ZooKeeper 在分布式读写锁实践细节上的思考,希望帮助大家理解分布式读写锁背后的原理。
|
2月前
|
缓存 NoSQL PHP
Redis作为PHP缓存解决方案的优势、实现方式及注意事项。Redis凭借其高性能、丰富的数据结构、数据持久化和分布式支持等特点,在提升应用响应速度和处理能力方面表现突出
本文深入探讨了Redis作为PHP缓存解决方案的优势、实现方式及注意事项。Redis凭借其高性能、丰富的数据结构、数据持久化和分布式支持等特点,在提升应用响应速度和处理能力方面表现突出。文章还介绍了Redis在页面缓存、数据缓存和会话缓存等应用场景中的使用,并强调了缓存数据一致性、过期时间设置、容量控制和安全问题的重要性。
55 5
|
3月前
|
人工智能 文字识别 Java
SpringCloud+Python 混合微服务,如何打造AI分布式业务应用的技术底层?
尼恩,一位拥有20年架构经验的老架构师,通过其深厚的架构功力,成功指导了一位9年经验的网易工程师转型为大模型架构师,薪资逆涨50%,年薪近80W。尼恩的指导不仅帮助这位工程师在一年内成为大模型架构师,还让他管理起了10人团队,产品成功应用于多家大中型企业。尼恩因此决定编写《LLM大模型学习圣经》系列,帮助更多人掌握大模型架构,实现职业跃迁。该系列包括《从0到1吃透Transformer技术底座》、《从0到1精通RAG架构》等,旨在系统化、体系化地讲解大模型技术,助力读者实现“offer直提”。此外,尼恩还分享了多个技术圣经,如《NIO圣经》、《Docker圣经》等,帮助读者深入理解核心技术。
SpringCloud+Python 混合微服务,如何打造AI分布式业务应用的技术底层?
|
3月前
|
分布式计算 NoSQL Java
Hadoop-32 ZooKeeper 分布式锁问题 分布式锁Java实现 附带案例和实现思路代码
Hadoop-32 ZooKeeper 分布式锁问题 分布式锁Java实现 附带案例和实现思路代码
72 2
|
3月前
|
分布式计算 负载均衡 算法
Hadoop-31 ZooKeeper 内部原理 简述Leader选举 ZAB协议 一致性
Hadoop-31 ZooKeeper 内部原理 简述Leader选举 ZAB协议 一致性
43 1
|
3月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
71 1
|
3月前
|
缓存 网络协议 API
分布式系统应用之服务发现!
分布式系统应用之服务发现!
|
4月前
|
安全 应用服务中间件 API
微服务分布式系统架构之zookeeper与dubbo-2
微服务分布式系统架构之zookeeper与dubbo-2
|
4月前
|
负载均衡 Java 应用服务中间件
微服务分布式系统架构之zookeeper与dubbor-1
微服务分布式系统架构之zookeeper与dubbor-1

热门文章

最新文章