sgdisk基本用法

2023-11-07

sgdisk基本用法

简介

sgdisk是Linux下操作GPT分区的工具,就像fdisk是操作MBR分区的工具。关于GPT和MBR的区别请参考:
http://www.anchor.com.au/blog/2012/10/the-difference-between-booting-mbr-and-gpt-with-grub/

使用

新建分区

root@ceph1:~$ sgdisk --help | grep new
-n, --new=partnum:start:end                  create new partition

-n 创建一个分区, -n后的参数分别是: 分区号:起始地址:终止地址
分区号如果为0,代表使用第一个可用的分区号;
起始地址和终止地址可以为0,0代表第一个可用地址和最后一个可用地址;
起始地址和终止地址可以为+/-xxx,代表偏移量,+代表在起始地址后的xxx地址,-代表在终止地址前的xxx地址;

  • 创建了一个不指定大小、不指定分区号的分区:
root@ceph1:~# sgdisk -n 0:0:0 /dev/vdd
Creating new GPT entries.
The operation has completed successfully.

root@ceph1:~# lsblk | grep vdd
NAME   MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vdd    253:48   0  40G  0 disk
└─vdd1 253:49   0  20G  0 part
  • 创建一个从默认起始地址开始的10G的分区:
root@ceph1:~# sgdisk -n 2:0:+5G /dev/vdd
Creating new GPT entries.
The operation has completed successfully.

root@ceph1:~# lsblk | grep vdd
NAME   MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vdd    253:48   0  40G  0 disk
└─vdd1 253:49   0  20G  0 part
└─vdd2 253:50   0  5G   0 part

查看分区详情

root@ceph1:~$ sgdisk --help | grep info
  -i, --info=partnum                 show detailed information on partition

-i 显示某个分区详情

  • 查看第一分区详情:
root@ceph1:~# sgdisk -i 1 /dev/vdd
Partition GUID code: 0FC63DAF-8483-4772-8E79-3D69D8477DE4 (Linux filesystem)
Partition unique GUID: C7EB237F-9A8F-4938-B010-125B3D6D0D4A
First sector: 2048 (at 1024.0 KiB)
Last sector: 41943006 (at 20.0 GiB)
Partition size: 41940959 sectors (20.0 GiB)
Attribute flags: 0000000000000000
Partition name: ''

修改分区的 type code

root@ceph1:~$ sgdisk --help | grep typecode
  -t, --typecode=partnum:{hexcode|GUID}        change partition type code

-t 修改某个分区的type code

  • 指定第一分区的type code:
root@ceph1:~# sgdisk -t 1:4fbd7e29-9d25-41b8-afd0-062c0ceff05d /dev/vdd
The operation has completed successfully.

root@ceph1:~# sgdisk -i 1 /dev/vdd
Partition GUID code: 4FBD7E29-9D25-41B8-AFD0-062C0CEFF05D (Unknown)
Partition unique GUID: C7EB237F-9A8F-4938-B010-125B3D6D0D4A
First sector: 2048 (at 1024.0 KiB)
Last sector: 41943006 (at 20.0 GiB)
Partition size: 41940959 sectors (20.0 GiB)
Attribute flags: 0000000000000000
Partition name: ''

修改分区名

root@ceph1:~$ sgdisk --help | grep change-name
  -c, --change-name=partnum:name             change partition's name

-c 修改某个分区的分区名

  • 指定第一分区的分区名:
root@ceph1:~# sgdisk  -c 1:"ceph data" /dev/vdd
The operation has completed successfully.

root@ceph1:~# sgdisk -i 1 /dev/vdd
Partition GUID code: 4FBD7E29-9D25-41B8-AFD0-062C0CEFF05D (Unknown)
Partition unique GUID: C7EB237F-9A8F-4938-B010-125B3D6D0D4A
First sector: 2048 (at 1024.0 KiB)
Last sector: 41943006 (at 20.0 GiB)
Partition size: 41940959 sectors (20.0 GiB)
Attribute flags: 0000000000000000
Partition name: 'ceph data'

清除分区数据

root@ceph1:~$ sgdisk --help | grep zap
  -z, --zap                  zap (destroy) GPT (but not MBR) data structures
  • 清除第一分区:
root@ceph1:~# sgdisk -z /dev/vdd1
Creating new GPT entries.
Warning: The kernel is still using the old partition table.
The new table will be used at the next reboot.
GPT data structures destroyed! You may now partition the disk using fdisk or
other utilities.

删除分区

root@ceph1:~$ sgdisk --help | grep delete
  -d, --delete=partnum                 delete a partition

-d 删除一个分区

  • 删除第一分区:
root@ceph1:~# sgdisk -d 1 /dev/vdd
The operation has completed successfully.

root@ceph1:~# lsblk | grep vdd
NAME   MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vdd    253:48   0  40G  0 disk
└─vdd2 253:50   0  5G   0 part
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

sgdisk基本用法 的相关文章

  • 6. Proxmox VE安装Ceph Dashboard

    6 Proxmox VE安装Ceph Dashboard span class token function apt get span span class token function install span ceph mgr dash
  • ceph 17版本:使用cephadm部署单节点集群

    ceph 17版本 xff1a 使用cephadm部署17 2版本的单节点集群 文章目录 前言一 环境版本信息二 基础环境部署1 服务器准备2 配置DNS3 安装时间服务4 关闭防火墙5 安装docker服务5 安装lvm服务 二 ceph
  • ceph的一些优化

    最近一直在忙着搞Ceph存储的优化和测试 xff0c 看了各种资料 xff0c 但是好像没有一篇文章把其中的方法论交代清楚 xff0c 所以呢想在这里进行一下总结 xff0c 很多内容并不是我原创 xff0c 只是做一个总结 如果其中有任何
  • ceph学习(3)——rbd-mirror双机热备

    一 概述 本文主要关注于rbd mirror的使用以及使用过程中的遇到的问题 二 环境准备 ceph版本 14 2 16 服务器 3台centos7服务器 ceph1 ceph2 ceph3 硬盘 每台服务器1块10GB以上硬盘做osd 分
  • 分布式存储Ceph中的逻辑结构Pool和PG

    Ceph中的逻辑对象有Object Pool PG 本文简单介绍相关的概念以及之间的关系 PG状态变化过程等 1 Ceph集群中的逻辑结构 1 1 Object Object是Ceph的最小存储单元 大小可以自己定义通常为2M或4M 每个O
  • 【Ceph】1 pools have many more objects per pg than average

    公司 Ceph 集群从 v12 升级到 v14 后 今天某个 CephFS 的集群收到一个 HEALTH WARN 的告警 具体的 Warning 的信息为 1 pools have many more objects per pg tha
  • ceph pg和pgp的区别

    一 前言 首先来一段英文关于PG和PGP区别的解释 PG Placement Group PGP Placement Group for Placement purpose pg num number of placement groups
  • Ceph 存储池命令 以及 数据压缩

    文章目录 一 存储池操作 1 1 常用命令 1 2 删除存储池 1 3 存储池配额 1 4 存储池可用参数 二 存储池快照 2 1 创建快照 2 2 验证快照 2 3 回滚快照 2 4 删除快照 三 数据压缩 3 1 启用压缩并指定压缩算法
  • 【重识云原生】第三章云存储第一节——分布式云存储总述

    重识云原生系列 专题索引 第一章 不谋全局不足以谋一域 第二章计算第1节 计算虚拟化技术总述 第二章计算第2节 主流虚拟化技术之VMare ESXi 第二章计算第3节 主流虚拟化技术之Xen 第二章计算第4节 主流虚拟化技术之KVM 第二章
  • ceph-cursh规则实战及PGS unknown 问题处理

    问题描述 root ceph mon01 ceph s cluster id 92d4f66b 94a6 4c40 8941 734f3c44eb4f health HEALTH ERR 1 filesystem is offline 1
  • Ceph性能优化总结(v0.94)

    如需转载请标明作者 原文地址 http xiaoquqi github io blog 2015 06 28 ceph performance optimization summary 最近一直在忙着搞Ceph存储的优化和测试 看了各种资料
  • 利用 RDMA 技术加速 Ceph 存储解决方案

    利用 RDMA 技术加速 Ceph 存储解决方案 晓兵XB 云原生云 2023 04 29 20 37 发表于四川 首发链接 利用 RDMA 技术加速 Ceph 存储解决方案 在本文中 我们首先回顾了 Ceph 4K I O 工作负载中遇到
  • 学一点Ceph知识:初识Ceph

    Ceph是什么 Ceph是一个开源的分布式存储系统 可大规模扩展 高性能 无单点故障 在普通的服务器上可以支持到PB级容量 商用机器上支持的容量可以达到EB级别 Ceph的竞争力 市面上提供云存储的分布式系统如阿里云的OSS 底层存储框架为
  • ceph集群部署

    一 ceph特点高性能 1 摒弃了传统的集中式存储元数据寻址的方案 采用CRUSH算法 数据分布均衡 并行度高 2 考虑了容灾域的隔离 能够实现各类负载的副本放置规则 例如跨机房 机架 感知等 3 能够支持上千个存储节点的规模 支持TB到P
  • CEPH PG incomplete状态修复

    某运营商的Kubernetes项目物理机停机维护 重启后Kubernetes部分pod无法挂载PVC 请求超时 该Kubernetes集群的后端存储使用ceph rbd块存储 检查ceph集群状态异常 root ceph node01 ce
  • ceph集群换盘

    一引言 某地项目运行两年后磁盘批量报错 利用smartctl检测发现出现大量扇区错误 但并未达到彻底无法读写程度 统计下来发现数量接近40块 考虑批次换盘 坏盘期间为了保证不影响业务 需拟定一个较好的方案 二 方案 在查阅一堆资料后 发现无
  • ceph分布式存储集群部署及应用

    分布式文件系统 Distributed File System 分布式文件系统是指文件系统管理的物理存储资源不一定直接连接在本地节点上 而是通过计算机网络与节点相连 分布式文件系统的设计基于C S模式 常用分布式文件系统 Lustre Ha
  • s3cmd put 时提示 ERROR: S3 error: 403 (QuotaExceeded)

    配置里的rgw配额是10000000写满 s3cmd put 时提示 ERROR S3 error 403 QuotaExceeded rgw bucket default quota max objects 值为 1 查看配额信息 rad
  • 单节点集群(minikube)上的 rook ceph 中的 1 pg 规模过小运行状况警告

    我正在将 rook ceph 部署到 minikube 集群中 一切似乎都正常 我向虚拟机添加了 3 个未格式化的磁盘并已连接 我遇到的问题是 当我运行 ceph status 时 我收到一条健康温暖消息 告诉我 1 pg 尺寸不足 我到底
  • Flink 使用 Ceph 作为持久存储

    Flink 文档建议 Ceph 可以用作状态的持久存储 https ci apache org projects flink flink docs release 1 3 dev stream checkpointing html http

随机推荐