ClickHouse Keeper 源码解析

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: ClickHouse 社区在21.8版本中引入了 ClickHouse Keeper。ClickHouse Keeper 是完全兼容 Zookeeper 协议的分布式协调服务。本文对开源版本 ClickHouse v21.8.10.19-lts 源码进行了解析。
作者简介 范振(花名辰繁),阿里云开源大数据-OLAP 方向负责人。

内容框架
  • 背景
  • 架构图
  • 核心流程图梳理
  • 内部代码流程梳理
  • Nuraft 关键配置排坑
  • 结论
  • 关于我们
  • Reference



背景

注:以下代码分析版本为开源版本 ClickHouse v21.8.10.19-lts。类图、顺序图未严格按照 UML 规范;为方便表意,函数名、函数参数等未严格按照原版代码。


HouseKeeper Vs Zookeeper

  • Zookeeper java 开发,有 JVM 痛点,执行效率不如 C++;Znode 数量太多容易出现性能问题,Full GC 比较多。


  • Zookeeper 运维复杂,需要独立部署组件,之前出问题比较多。HouseKeeper 部署形态比较多,可以 standalone 模式和集成模式。


  • Zookeeper ZXID overflow 问题,HouseKeeper 没有该问题。



  • HouseKeeper 代码与 CK 统一,自主闭环可控。未来可扩展能力强,可以基于此做 MetaServer 的设计开发。主流的的 MetaServer 基本都是 Raft+rocksDB 的组合,可以借助该 codebase 进行开发。


Zookeeper Client

  • Zookeeper Client 完全不需要修改,HouseKeeper 完全适配 Zookeeper 的协议。


  • Zookeeper Client 由 CK 自己开发,放弃使用 libZookeeper(是一个bad smell代码库),CK 自己从 TCP 层进行封装遵循 Zookeeper Protocol。


架构图

  • 3种部署模式,推荐第一种 standalone 方式,可以选择小机型 SSD 磁盘,最大程度发挥 Keeper 的性能。

image.png

image.png

image.png


核心流程图梳理

类图关系

image.png

  • 入口 main 函数,主要做2件事:
  • 初始化 Poco::Net::TCPServer,定义处理请求的 KeeperTCPHandler。
  • 实例化 keeper_storage_dispatcher并且调用 KeeperStorageDispatcher->initialize()。该函数主要作用是以下几个:
  • 实例化类图中的几个 Threads,以及相关的 ThreadSafeQueue,保证不同线程间同步数据。
  • 实例化 KeeperServer 对象,该对象是核心数据结构,是整个 Raft 的最重要部分。KeeperServer 主要由 state_machine,state_manager,raft_instance,log_store(间接)组合成,他们分别继承了 nuraft 库中的父类。一般来说,所有 raft based 应用均应该实现这几个类。
  • 调用 KeeperServer::startup(),主要是初始化 state_machine,state_manager。启动过程中会调用 state_machine->init(), state_manager->loadLogStore(...),分别进行 snapshot 和 log 的加载。从最新的 raft snapshot 中恢复到最新提交的 latest_log_index,并形成内存数据结构(最关键是 Container 数据结构,即KeeperStorage::SnapshotableHashTable),然后再继续加载 raft log 文件中的每一条记录至 logs (即数据结构 std::unordered_map),这两个粗体的唯二的数据结构,是整个 HouseKeeper 的核心,也是内存大户,后边会提及。


  • KeeperTCPHandler 主循环是读取 socket 请求,将请求 dispatcher->putRequest(req) 交给 requests_queue,然后通过 responses.tryPop(res) 从中读到 response,最终写 socket 将 response 返回给客户端。主要经历以下几个步骤:
  • 确认整个集群是否有 leader,如果有,sendHandshake。注意:HouseKeeper利用了 naraft 的 auto_forwarding 选项,所以如果接受请求的是非 leader,会承担 proxy 的作用,将请求 forward 到 leader,读写请求都会经过 proxy。
  • 获得请求的 session_id。新来的 connection 获取 session_id 的过程是服务端 keeper_dispatcher->internal_session_id_counter 自增的过程。
  • keeper_dispatcher->registerSession(session_id,response_callback),将对应的 session_id 和回调函数绑定。
  • 将请求 keeper_dispatcher->putRequest(req) 交给 requests_queue。
  • 通过循环 responses.tryPop(res) 从中读到 response,最终写 socket 将 response 返回给客户端。


处理请求的线程模型

image.png

  • 从 TCPHandler 线程开始经历顺序图中的不同线程调用,完成全链路的请求处理。


  • 读请求直接由 requests_thread 调用 state_machine->processReadRequest 处理,在该函数中,调用 storage->processRequest(...) 接口。


  • 写请求通过 raft_instance->append_entries(entries) 这个 nuraft 库的 User API 进行 log 写入。达成 consensus 之后,通过 nuraft 库内部线程调用 commit 接口,执行 storage->processRequest(...) 接口。


  • Nuraft 库的 normal log replication 处理流程如下图:

image.png

  • Nuraft 库内部维护两个核心线程(或线程池),分别是:
  • raft_server::append_entries_in_bg,leader 角色负责查看 log_store 中是否有新的 entries,对 follower 进行 replication。
  • raft_server::commit_in_bg,所有角色(role,follower)查看自己的状态机 sm_commit_index 是否落后于 leader 的 leader_commit_index,如果是,则 apply_entries 到状态机中。


内部代码流程梳理

总体上nuraft实现了一个编程框架,需要对类图中标红的几个class进行实现。

LogStore与Snapshot

  • LogStore 负责持久化 logs,继承自 nuraft::log_store,这一系列接口中比较重要的是:
  • 写:包括顺序写 KeeperLogStore::append(entry),覆盖写(截断写) KeeperLogStore::write_at(index, entry),批量写 KeeperLogStore::apply_pack(index, pack)等。
  • 读:last_entry(),entry_at(index) 等。
  • 合并后清理:KeeperLogStore::compact(last_log_index),主要会在 snapshot 之后进行调用。当 KeeperStateMachine::create_snapshot(last_log_idx) 调用时,当所有的 snapshot 将数据序列化到磁盘后,会调用 log_store_->compact(compact_upto),其中 compact_upto = new_snp->get_last_log_idx() - params->reserved_log_items_。这是一个小坑, compact 的 compact_upto index 不是已经做过 snapshot 的最新 index,需要有一部分的保留,对应的配置是 reserved_log_items。


  • ChangeLog 是 LogStore 的 pimpl,提供了所有的 LogStore/nuraft::log_store 的接口。ChangeLog 主要是由 current_wirter(log file writer)和 logs(内存std::unordered_map数据结构)组成。
  • 每插入一条 log,会将 log 序列化到 file buffer 中,并且插入到内存 logs 中。所以可以确定,在未做 snapshot 之前,logs 占用内存会一直增加
  • 当做完 snaphost 之后,会把已经序列化磁盘中的 compact_upto 的 index 从内存 logs 中 erase 掉。所以,我们需要 trade off 两个配置项 snapshot_distance 和 reserved_log_items。目前两个配置项缺省值都是10w条,容易大量占用内存,推荐值是:
  • 10000
  • 5000


  • KeeperSnapshotManager 提供了一系列 ser/deser 的接口:
  • KeeperStorageSnapshot 主要是提供了 KeeperStorage 和 file buffer 互相 ser/deser 的操作。
  • 初始化时,直接通过 Snapshot 文件进行 deser 操作,恢复到文件指示的 index(如 snapshot_200000.bin,指示的 index 为200000)所对应的 KeeperStorage 数据结构。
  • KeeperStateMachine::create_snapshot 时,根据提供的 snapshot 元数据(index,term等),执行 ser 操作,将 KeeperStorage 数据结构序列化到磁盘。


  • Nuraft 库中提供的 snapshot transmission:当新加入的 follower 节点或者 follower 节点的日志落后很多(已经落后于最新一次 log compaction upto_index),leader 会主动发起 InstallSnapshot 流程,如下图:

image.png

  • Nuraft 库针对 InstallSnapshot 流程提供了几个接口。KeeperStateMachine 对此进行了简单的实现:
  • read_logical_snp_obj(...),leader 直接将内存中最新的快照 latest_snapshot_buf 发送。
  • save_logical_snp_obj(...),follower 接收并序列化落盘,更新自身的 latest_snapshot_buf。
  • apply_snapshot(...),将最新的快照 latest_snapshot_buf,生成最新版本的 storage。


KeeperStorage

这个类用来模拟与 Zookeeper 对等的功能。


  • 最核心的数据结构是 Zookeeper 的 Znode 存储:
  • using Container = SnapshotableHashTable,由 std::unordered_map 和 std::list 组合来实现一种无锁数据结构。key 为 Zookeeper path,value 为 Zookeeper Znode(包括存储 Znode 的 stat 元数据),Node 定义为:
structNode    {
Stringdata;
uint64_tacl_id=0; /// 0 -- no ACL by defaultboolis_sequental=false;
Coordination::Statstat{};
int32_tseq_num=0;
ChildrenSetchildren{};
    };


  • 提供了 ephemerals,sessions_and_watchers,session_and_timeout,acl_map,watches 等数据结构,实现都很简单,就不一一介绍了。


  • 所有的 Request 都实现自 KeeperStorageRequest 父类,包括下图的所有子类,每一个 Request 实现了纯虚函数,用来对 KeeperStorage 的内存数据结构进行操作。
virtualstd::pair<Coordination::ZooKeeperResponsePtr, Undo>process(KeeperStorage&storage, int64_tzxid, int64_tsession_id) const=0;

image.png


Nuraft 关键配置排坑

  • 阿里云 EMR ECS 机器对应的操作系统版本比较老(新版本已经解决),对于 ipv6 支持不好,server 启动不了。workaround 方法是先将 nuraft 库 hard coding 的 tcp port 改成 ipv4。


  • 做5轮 zookeeper 压测,发现内存一直上涨,现象接近内存泄露。结论是:不是内存泄露,需要调整参数,使 logs 内存数据结构不占用过多内存。
  • 每一轮先创建500w个 Znode,每个 Znode 数据是256,再删除500w Znode。具体过程是:利用 ZookeeperClient 的 multi 模式,每一轮发起5000次请求,每个请求 transaction 创建1000个 Znode,达到500w个 Znode 后,再发起5000次请求,每个请求删除1000个 Znode,这样保证每一轮所有的 Znode 全部删除。这样即每一轮插入10000条 logEntry。
  • 过程中发现每一轮内存都会上涨,经过5轮之后内存上涨到20G以上,怀疑是内存泄露。
  • 加入代码 profile 打印 showStatus 之后,发现每一轮 ChangeLog::logs 数据结构一直增长,而 KeeperStorage::Container 数据结构会随着 Znode 数量而周期变化,最终回归0。结论是:由于 snapshot_distance 默认配置是10w条,所以,一直没有发生 create_snapshot,也即没有发生 compact logs,ChangeLog::logs 内存占用会越来越多。所以建议配置为:
  • 10000
  • 5000


  • 通过配置 auto_forwarding,可以让 leader 把请求转发给 follower,对 ZookeeperClient 是透明实现。但是这个配置 nuraft 不推荐,后续版本应该会改善该做法。


结论

  • 去掉 Zookeeper 依赖会让 ClickHouse 不再依赖外部组件,无论从稳定性和性能都向前迈进了一大步,为逐渐走向云原生化提供了前提。


  • 基于该 codebase,后续将会逐步衍生出基于 Raft 的 MetaServer,为支持存算分离、支持分布式 Join 的 MPP 架构等方向提供了前提。


关于我们

计算平台开源大数据团队致力于开源引擎的内核研发工作,OLAP 方向包括 ClickHouse,Starrocks,Trino(PrestoDB) 等。


期待热爱核深度开发的小伙伴们加入,邮箱请联系fanzhen.f@alibaba-inc.com。


开源大数据 OLAP 引擎感兴趣的小伙伴,欢迎钉钉扫描文末二维码加入交流群一起交流探讨!


Reference

[1] https://github.com/eBay/NuRaft

[2] https://xzhu0027.gitbook.io/blog/misc/index/consistency-models-in-distributed-system

[3] https://zhuanlan.zhihu.com/p/425072031





我们会在钉钉群定期推送精彩文章,邀请技术大牛直播分享
欢迎
钉钉扫码加入产品交流群一起参与讨论~

lADPJxf-vLwH-jLNA97NAu4_750_990.jpg

相关文章
|
2月前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
87 2
|
12天前
|
存储 设计模式 算法
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
行为型模式用于描述程序在运行时复杂的流程控制,即描述多个类或对象之间怎样相互协作共同完成单个对象都无法单独完成的任务,它涉及算法与对象间职责的分配。行为型模式分为类行为模式和对象行为模式,前者采用继承机制来在类间分派行为,后者采用组合或聚合在对象间分配行为。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象行为模式比类行为模式具有更大的灵活性。 行为型模式分为: • 模板方法模式 • 策略模式 • 命令模式 • 职责链模式 • 状态模式 • 观察者模式 • 中介者模式 • 迭代器模式 • 访问者模式 • 备忘录模式 • 解释器模式
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
|
12天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
结构型模式描述如何将类或对象按某种布局组成更大的结构。它分为类结构型模式和对象结构型模式,前者采用继承机制来组织接口和类,后者釆用组合或聚合来组合对象。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象结构型模式比类结构型模式具有更大的灵活性。 结构型模式分为以下 7 种: • 代理模式 • 适配器模式 • 装饰者模式 • 桥接模式 • 外观模式 • 组合模式 • 享元模式
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
12天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
创建型模式的主要关注点是“怎样创建对象?”,它的主要特点是"将对象的创建与使用分离”。这样可以降低系统的耦合度,使用者不需要关注对象的创建细节。创建型模式分为5种:单例模式、工厂方法模式抽象工厂式、原型模式、建造者模式。
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
2月前
|
缓存 监控 Java
Java线程池提交任务流程底层源码与源码解析
【11月更文挑战第30天】嘿,各位技术爱好者们,今天咱们来聊聊Java线程池提交任务的底层源码与源码解析。作为一个资深的Java开发者,我相信你一定对线程池并不陌生。线程池作为并发编程中的一大利器,其重要性不言而喻。今天,我将以对话的方式,带你一步步深入线程池的奥秘,从概述到功能点,再到背景和业务点,最后到底层原理和示例,让你对线程池有一个全新的认识。
57 12
|
1月前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
13天前
|
安全 搜索推荐 数据挖掘
陪玩系统源码开发流程解析,成品陪玩系统源码的优点
我们自主开发的多客陪玩系统源码,整合了市面上主流陪玩APP功能,支持二次开发。该系统适用于线上游戏陪玩、语音视频聊天、心理咨询等场景,提供用户注册管理、陪玩者资料库、预约匹配、实时通讯、支付结算、安全隐私保护、客户服务及数据分析等功能,打造综合性社交平台。随着互联网技术发展,陪玩系统正成为游戏爱好者的新宠,改变游戏体验并带来新的商业模式。
|
2月前
|
存储 安全 Linux
Golang的GMP调度模型与源码解析
【11月更文挑战第11天】GMP 调度模型是 Go 语言运行时系统的核心部分,用于高效管理和调度大量协程(goroutine)。它通过少量的操作系统线程(M)和逻辑处理器(P)来调度大量的轻量级协程(G),从而实现高性能的并发处理。GMP 模型通过本地队列和全局队列来减少锁竞争,提高调度效率。在 Go 源码中,`runtime.h` 文件定义了关键数据结构,`schedule()` 和 `findrunnable()` 函数实现了核心调度逻辑。通过深入研究 GMP 模型,可以更好地理解 Go 语言的并发机制。
|
2月前
|
消息中间件 缓存 安全
Future与FutureTask源码解析,接口阻塞问题及解决方案
【11月更文挑战第5天】在Java开发中,多线程编程是提高系统并发性能和资源利用率的重要手段。然而,多线程编程也带来了诸如线程安全、死锁、接口阻塞等一系列复杂问题。本文将深度剖析多线程优化技巧、Future与FutureTask的源码、接口阻塞问题及解决方案,并通过具体业务场景和Java代码示例进行实战演示。
63 3
|
3月前
|
存储
让星星⭐月亮告诉你,HashMap的put方法源码解析及其中两种会触发扩容的场景(足够详尽,有问题欢迎指正~)
`HashMap`的`put`方法通过调用`putVal`实现,主要涉及两个场景下的扩容操作:1. 初始化时,链表数组的初始容量设为16,阈值设为12;2. 当存储的元素个数超过阈值时,链表数组的容量和阈值均翻倍。`putVal`方法处理键值对的插入,包括链表和红黑树的转换,确保高效的数据存取。
68 5