发表评论取消回复
相关阅读
相关 ceph 统计pg的priamry osd 数量
root@pve:~\ ceph pg dump | grep active+clean | egrep "\\\[0," | wc -l dumped all
相关 ceph 移动 osd 到另外一个 crush map
目标 > 参考下面图示 > 当前 osd.16, osd17 在 deoot root 下 > 迁移 osd.16 osd.17 至 noah root 下
相关 ceph 删除 osd
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 0
相关 ceph osd down
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 3
相关 Ceph-智能分布CRUSH之Object与PG与OSD
Ceph CRUSH算法(Controlled Replication Under ScalableHashing)一种基于为随机控制数据分布、复制的算法。 基本原理:
相关 ceph学习之PG
PG的计算公式: 整个集群PG的计算公式 Total PGs = ((Total_number_of_OSD 100) / max_replication_cou
相关 Ceph Crush算法详解
Ceph作为最近关注度比较高的统一分布式存储系统,其有别于其他分布式系统就在于它采用Crush(Controlled Replication Under Scalable Ha
相关 ceph故障:too many PGs per OSD
原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: ceph -s
相关 Ceph剖析:数据分布之CRUSH算法与一致性Hash
数据分布是分布式存储系统的一个重要部分,数据分布算法至少要考虑以下三个因素: 1) 故障域隔离。同份数据的不同副本分布在不同的故障域,降低数据损坏的风险; 2) 负
相关 ceph 为ssd,sas osd设置不同的crush location
创建ssd root ceph osd crush add-bucket ssd root 创建hostgroup ceph osd crush add-
还没有评论,来说两句吧...