MDS多活配置

简介: MDS多活配置 默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。   要配置mds多活,只需要修改cephfs系统的max_mds参数即可。

MDS多活配置

默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。

要配置mds多活,只需要修改cephfs系统的max_mds参数即可。以下是未配置之前的集群状态

[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/1 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

1、配置多活

[root@test1 ~]# ceph mds set max_mds 2
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/2 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

2、恢复单活mds

[root@test1 ~]# ceph mds set max_mds 1
[root@test1 ~]# ceph mds deactivate 1
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-1/1/1 up  {0=test2=up:active}, 2 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
 
  io:
    client:   31.7KiB/s rd, 170B/s wr, 31op/s rd, 21op/s wr

相关文章
|
存储 缓存 运维
Ceph离线(纯内网)部署
Ceph离线(纯内网)部署
Ceph离线(纯内网)部署
|
17天前
|
存储 对象存储
Ceph Reef(18.2.X)的对象存储网关(rgw)组件搭建
这篇文章是关于Ceph Reef(18.2.X)版本中对象存储系统的配置和使用案例,包括对象存储网关的概述、核心资源介绍、Ceph RGW支持的接口、高可用radosgw的部署、s3cmd工具的使用以及如何通过HTTP方式访问对象存储。
34 3
Ceph Reef(18.2.X)的对象存储网关(rgw)组件搭建
|
17天前
|
存储 块存储
Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容
这篇文章是关于Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容的详细教程,涵盖了OSD的基础操作、节点缩容的步骤和实战案例以及OSD节点扩容的基本流程和实战案例。
28 6
|
18天前
|
块存储
ceph集群的OSD设备扩缩容实战指南
这篇文章详细介绍了Ceph集群中OSD设备的扩容和缩容过程,包括如何添加新的OSD设备、如何准备和部署,以及如何安全地移除OSD设备并从Crushmap中清除相关配置。
54 4
|
4月前
|
存储 Kubernetes 容灾
Velero 系列文章(五):基于 Velero 的 Kubernetes 集群备份容灾生产最佳实践
Velero 系列文章(五):基于 Velero 的 Kubernetes 集群备份容灾生产最佳实践
|
关系型数据库 网络安全 数据库
MogDB/openGauss 手动部署(非OM工具)单机,主备,主备级联架构
MogDB/openGauss 手动部署(非OM工具)单机,主备,主备级联架构
386 0
|
存储 Kubernetes API
Kubernetes Master节点 灾备恢复操作指南
本文档简述了Kubernetes主节点灾备恢复的相关步骤,供在发生k8s master崩溃时操作。 就算是在k8s里部署了etcd群集, 主节点控制组件的高可用节点,灾备恢复也是必须要实现的操作,才能形成完备的企业级服务方案。
9712 0
|
存储 关系型数据库 网络安全
手动部署ceph octopus集群
手动部署ceph octopus集群
手动部署ceph octopus集群
如何快速部署Ceph分布式高可用集群(下)
如何快速部署Ceph分布式高可用集群(下)
373 0
如何快速部署Ceph分布式高可用集群(下)
|
安全 Linux 网络安全
如何快速部署Ceph分布式高可用集群(上)
如何快速部署Ceph分布式高可用集群(上)
790 0
如何快速部署Ceph分布式高可用集群(上)