1.高效元数据操作。
JindoFS NamespaceService 基于内存 + 磁盘管理和存储元数据,但是性能上比使用内存的 HDFS NameNode 还要好,一方面是 JindoFS 使用 C++ 开发,没有 GC 等问题,响应更快;另一方面是由于 Namespace Service 内部有更好的设计,比如文件元数据上更细粒度的锁,更高效的数据块副本管理机制。 2.秒级启动。
有大规模 HDFS 集群维护经验的同学比较清楚,当 HDFS 元数据存储量过亿以后,NameNode 启动初始化要先加载 Fsimage ,再合并 edit log,然后等待全部 DataNode 上报 Block,这一系列流程完成要花费一个小时甚至更长的时间, 由于 NameNode 是双机高可用(Active/Standby),如果 standby 节点重启时 active 节点出现异常 ,或两台 NameNode 节点同时出现故障,HDFS 将出现停服一小时以上的损失。JindoFS 的元数据服务基于 Raft 实现高可用,支持 2N+1 的部署方式,允许同时挂掉 N 台;元数据服务 (NamespaceService) 在元数据内部存储上进行了设计和优化,进程启动后即可提供服务,可以做到了快速响应。由于 NamespaceService 近实时写入 OTS 的特点,元数据节点更换,甚至集群整体迁移也非常容易。
3.低资源消耗。
HDFS NameNode 采用内存形式来存储文件元数据。在一定规模下,这种做法性能上是比较不错的,但是这样的做法也使 HDFS 元数据的规模受限于节点的内存,经过推算,1亿文件 HDFS 文件大约需要分配 60 GB Java Heap 给 NameNode,所以一台 256 GB的机器最多可以管理 4 亿左右的元数据,同时还需要不断调优 JVM GC。JindoFS 的元数据采用 Rocksdb 存储元数据,可以轻松支持到 10 亿规模,对于节点的内存需求也非常小,资源开销不到 NameNode 的十分之一。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。