分布式存储ceph---ceph osd 故障硬盘更换(6)
正常状态:
故障状态:
实施更换步骤:
1、关闭ceph集群数据迁移:
osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out,并开始进行数据迁移恢复。为了降低ceph进行数据恢复或scrub等操作对性能的影响,可以先将其暂时关闭,待硬盘更换完成且osd恢复后再开启:
1 |
|
2、定位故障osd
1 |
|
3、进入osd故障的节点,卸载osd挂载目录
1 |
|
4、从crush map 中移除osd
1 2 |
|
5、删除故障osd的**
1 2 |
|
6、删除故障osd
1 2 |
|
7、更换完新硬盘后,注意新硬盘的盘符,并创建osd
8、在部署节点,切换为cent用户,添加新的osd
1 |
|
9、待新osd添加crush map后,重新开启集群禁用标志
1 |
|
ceph集群经过一段时间的数据迁移后,恢复active+clean状态