发表评论取消回复
相关阅读
相关 ceph osd 迁移方案
说明 参考 [ceph mon 扩容缩容步骤][ceph mon] [ceph mgr 在线迁移 (扩容 缩容)][ceph mgr _ _] 目标 >
相关 ceph 删除 osd
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 0
相关 ceph osd down
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 3
相关 ceph mon 迁移
目的 > 用于机房迁移 > 必须确保 mon 可以完成在线迁移或安全迁移 步骤 > ceph mon 扩容 (新机房) > ceph mon 缩容 (旧机
相关 ceph osd 修复备忘
目的 > 修复故障osd 现象 检测方法 磁盘检测 > 可以通过下面命令获取当前 ceph 磁盘与 osd 对应信息 > 命令行只显示本地磁盘及对应的
相关 ceph 添加/删除OSD(ceph.conf)
之前有篇Blog记录的是通过ceph-deploy进行osd的添加以及删除操作,这里记录的是通过ceph源码安装后,通过配置ceph配置文件,而进行ceph的osd
相关 Ceph删除/添加故障OSD(ceph-deploy)
今天osd.5起不来,发现是硬盘的问题 [root@ceph-osd-1 ceph-cluster] ceph osd tree id weight
相关 ceph osd full 解决方法
操作环境 openstack icehouse ceph giant 问题描述 今日查看ceph状态的时候,提示以下信息 [root@ceph-osd
相关 手动部署 ceph osd (luminous 版)
环境 参考 手动部署 ceph 环境说明 (luminous 版) 目标 > 1. /dev/sdm 作为系统盘 1. /dev/sdn 作为 journa
相关 ceph故障:too many PGs per OSD
原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: ceph -s
还没有评论,来说两句吧...