启动MON:systemctl start ceph-mon.target
启动OSD:systemctl start ceph-osd.target
启动RGW:systemctl start ceph-radosgw.target。ceph osd set noout # 禁止OSD自动踢出
ceph osd set nobackfill # 禁止数据回填
ceph osd set norecover # 禁止恢复操作
ceph osd set nodown # 禁止MON标记OSD为down
ceph osd set pause # 暂停集群读写
维护完成后需清除标志位(unset)。添加OSD:通过ceph-volume工具初始化硬盘并激活(如ceph-volume lvm create --data /dev/sdb)。
删除OSD:
标记为踢出:ceph osd out {osd-id}(数据迁移后删除)
直接销毁:ceph osd purge {osd-id} --yes-i-really-mean-it(适用于故障OSD)。
状态标记:
标记为宕机:ceph osd down {osd-id}
标记为丢失:ceph osd lost {osd-id} --yes-i-really-mean-it(谨慎操作,可能导致数据丢失)。
数据清理与修复
清理OSD:ceph osd scrub {osd-id} 或全集群清理:ceph osd scrub all
深度清理:ceph osd deep-scrub all
修复数据:ceph osd repair {osd-id}。查看集群健康状态:ceph -s(显示MON、OSD、PG状态及警告信息)
详细健康信息:ceph health detail
检查存储池状态:ceph osd pool stats
监控PG状态:ceph pg dump 或 ceph pg stat。查看OSD日志:journalctl -u ceph柳d@{osd-id}
配置文件推送:通过ceph-deploy -- overwrite-conf config push更新所有节点配置
动态调整配置:ceph tell osd.* injectargs '--debug柳d 20'(临时修改调试级别)。