ceph环境清理

2023-11-07

第一步:在/root/ceph 目录下执行(第一个节点)

ceph-deploy purge ceph01 ceph02 ceph03 ceph04
ceph-deploy purgedata ceph01 ceph02 ceph03 ceph04
ceph-deploy forgetkeys
rm -rf ceph.*

第二步:在/root 目录下执行(节点1、节点2、节点3、节点4):

result_VG=`vgdisplay | grep "ceph" |awk '{print $3}'`
for vg in ${result_VG}
do
	vgremove -f ${vg}
done

第三步:自动化框架清理:

第四步:清理缓存(每个节点执行)

需要提前安装nvme 工具
链接:https://pan.baidu.com/s/1icvDViQeh6iW9nfad7WxAQ
提取码:s3g6

cfdisk /dev/nvme0n1
cfdisk /dev/nvme1n1
nvme format -s 1 -f /dev/nvme0n1
nvme format -s 1 -f /dev/nvme1n1

查看分区:

lsblk

#对之前的bcache解绑定
对ceph1-4节点/sys/fs/bcache/目录进行unregister操作

#!/bin/bash
for n in {1..4}
do
    echo "ceph0$n"
    f=$(ssh ceph0$n "ls /sys/fs/bcache/")
    for i in $f
    do
        ssh ceph0$n "echo 1 > /sys/fs/bcache/$i/unregister"
    done
done

#对系统下sda…sdh硬盘进行detach,stop操作,dd写操作

for i in {0..7}
do
        temp=`expr $i % 8 + 97`
        diskID=$(printf \\x`printf %x ${temp}`)
        echo 1 >/sys/block/sd${diskID}/bcache/detach
        echo 1 >/sys/block/sd${diskID}/bcache/stop
        dd if=/dev/zero of=/dev/sd${diskID} count=2048 bs=1M
done

第五步:重启系统(每个节点)
nvme盘清完后,bcache分区会清除不了,重启bcache分区会自动清除

第六步:重启后执行下面命令

wipefs -a /dev/sda
wipefs -a /dev/sdb
wipefs -a /dev/sdc
wipefs -a /dev/sdd
wipefs -a /dev/sde
wipefs -a /dev/sdf
wipefs -a /dev/sdg
wipefs -a /dev/sdh
wipefs -a /dev/nvme0n1
wipefs -a /dev/nvme1n1

再次执行,没有回显表示正常

第七步:清除ceph

sudo rm -rf /var/lib/ceph/osd/*           
sudo rm -rf /var/lib/ceph/mon/*           
sudo rm -rf /var/lib/ceph/mds/*           
sudo rm -rf /var/lib/ceph/bootstrap-mds/* 
sudo rm -rf /var/lib/ceph/bootstrap-osd/* 
sudo rm -rf /var/lib/ceph/bootstrap-mon/* 
sudo rm -rf /var/lib/ceph/tmp/*           
sudo rm -rf /etc/ceph/*                   
sudo rm -rf /var/run/ceph/*               
rm -rf /etc/ceph/*
rm -rf /root/ceph/*
rm -rf /var/lib/ceph/*/*
rm -rf /var/log/ceph/*
rm -rf /var/run/ceph/*
userdel -r ceph  # 清除ceph用户
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

ceph环境清理 的相关文章

  • Ceph — 使用cephadm搭建Ceph集群

    文章目录 准备安装 cephadm部署集群 本文将通过cephadm工具来学习如何简单地搭建一个octopus版集群 准备 服务器 主机名iposcpu 内存数据盘mgr 01192 168 2 15Centos7 72C4G无node 0
  • 应用ceph文件系统存储(ceph-13.2.10)

    记录 xff1a 333 场景 xff1a 在CentOS 7 9操作系统上 xff0c 部署ceph 13 2 10集群 应用ceph文件系统 ceph file system xff1b 主要是创建ceph文件系统 客户端挂载ceph文
  • 4. 在 Proxmox VE 安装Ceph

    4 在 Proxmox VE 安装 Ceph 1 安装 按图操作即可 2 参考 1 https blog csdn net ggeol article details 109112815
  • ceph集群维护常用操作

    文章目录 通过套接字进行单机管理集群启停移除节点ceph配置文件存储池分类副本池IO纠删码池IO PG与PGPPG数量计算PG常见状态存储池管理创建存储池查看存储池删除存储池存储池配额 存储池可用参数存储池快照 通过套接字进行单机管理 可以
  • Ceph运维操作

    1 操控集群 1 1 UPSTART Ubuntu系统下 xff0c 基于ceph deploy部署集群后 xff0c 可以用这种方法来操控集群 列出节点上所有Ceph进程 xff1a start ceph all 启动节点上特定类型的Ce
  • k8s的ceph

    ceph安装 地址 xff1a https rook io docs rook v1 8 quickstart html 特性丰富 1 xff0c 支持三种存储接口 xff1a 块存储 文件存储 对象存储 2 xff0c 支持自定义接口 x
  • ceph学习(故障恢复)——mon全部故障,从osd中恢复集群

    在生产环境中 ceph集群要求最少配置3个MON 一般情况下很少出现3个MON同时挂掉的情况 但是也不排除出现这种情况的可能 如果集群中的所有MON都损坏了 是不是集群数据就丢失了呢 能不能恢复集群 当然是可以的 ceph中国的一位开发者写
  • cephadm快速部署指定版本ceph集群

    官方文档 https docs ceph com en pacific 1 虚拟机规划 主机名 IP 角色 ceph1 192 168 150 120 cephadm mon mgr osd ceph2 192 168 150 121 mo
  • ceph pg和pgp的区别

    一 前言 首先来一段英文关于PG和PGP区别的解释 PG Placement Group PGP Placement Group for Placement purpose pg num number of placement groups
  • Linux centos 卸载 ceph

    在CentOS上卸载Ceph的操作步骤 1 停止Ceph集群 首先 你需要停止Ceph集群中的所有服务 在每个节点上运行以下命令来停止所有服务 systemctl stop ceph target 2 卸载Ceph软件包 在每个节点上 使用
  • Ceph OSD Down

    CEPH集群跑了一段时间后有几个OSD变成down的状态了 但是我用这个命令去activate也不行 ceph deploy osd activate osd1 dev sdb2 dev sdb1 只能把osd从集群中移除 然后再重建了 这
  • Ceph入门到精通-ceph对于长文件名如何处理

    RADOS object with short name 上一篇博文 我们将介绍了对象相关的数据结构ghobject t 以及对象在底层文件系统存储的文件名 以及如何从文件名对应到 ghobject t对象 映射关系如下图所示 这里面有一个
  • k8s进阶篇-云原生存储ceph

    第一章 Rook安装 rook的版本大于1 3 不要使用目录创建集群 要使用单独的裸盘进行创建 也就是创建一个新的磁盘 挂载到宿主机 不进行格式化 直接使用即可 对于的磁盘节点配置如下 做这个实验需要高配置 每个节点配置不能低于2核4G k
  • ceph-deploy命令应用

    记录 336 场景 在CentOS 7 9操作系统上 使用ceph deploy创建ceph集群 部署集群的mon mgr mds osd rgw等组件 版本 操作系统 CentOS 7 9 ceph版本 ceph 13 2 10 名词 c
  • Ceph入门到精通-存储集群ceph df 用量统计算法说明

    3 2 5 Ceph 如何计算数据使用量 used 值反映了使用的实际原始存储量 xxx GB xxx GB 代表可用的存储 其中较小的数字 和总存储容量 总容量反映了在复制 克隆或快照前存储数据的大小 因此 实际存储的数据量通常会超过名义
  • Loongnix单机部署Ceph(LoongArch架构、Ceph N版、手动部署MON、OSD、MGR、Dashboard服务)

    基础环境信息 CPU 龙芯3C5000L 2 内存 128G 硬盘 系统盘 一块512G的NVME的SSD 数据盘 三块16T的HDD 操作系统版本 Loongnix 8 4 Ceph版本 Ceph 14 2 21 Nautilus Cep
  • rdb map出錯rbd sysfs write failed

    創建了一個rbd鏡像 rbd create size 4096 docker test 然後 在Ceph client端將該rbd鏡像映射為本地設備時出錯 rbd map docker test name client admin rbd
  • Ceph优化系列(一):Ceph架构及性能优化

    转载 Ceph架构及性能优化 对分布式存储系统的优化离不开以下几点 1 硬件层面 硬件规划 SSD选择 BIOS设置 2 软件层面 Linux OS Ceph Configurations PG Number调整 CRUSH Map 其他因
  • Ceph入门到精通-Macvlan网络模式

    Docker中的Macvlan网络模式提供了一种将容器直接连接到宿主机网络的方式 使得容器可以拥有自己的MAC地址和与宿主机网络的直接连接 以下是使用Macvlan网络模式的一般步骤 创建Macvlan网络 docker network c
  • Ceph入门到精通-smartctl 查看硬盘参数

    smartctl 参数含义 Model Family Toshiba s Enterprise Capacity HDD Device Model TOSHIBA MG08ACss Serial Number sssssss LU WWN

随机推荐