cephadm安装ceph v15

2023-05-16

cephadm 安装ceph v15准备

参考安装文档, 有问题可以直接留言,大家一起交流,以下都是部署的比较基础的东西

https://docs.ceph.com/en/latest/cephadm/
http://www.dtmao.cc/news_show_1027422.shtml

用的阿里云的三台机器进行测试,其中每台机器挂载了一块40G的数据盘,系统盘也为40G,系统为centos7.8

  • 三台服务器
hostnameIP
node1172.16.2.186
node2172.16.2.184
node3172.16.2.184
  • 安装docker

参考https://www.runoob.com/docker/centos-docker-install.html

curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
  • 设置hostname和修改hosts(每台服务器都需要设置hostname和修改hosts文件)

设置hostname

vim /etc/hostname 然后写入hostname即可

hostnamectl set-hostname node1

修改hosts(如下图所示)

vim /etc/hosts

  • 禁用防火墙
systemctl stop firewalld
systemctl disable firewalld

接下来就开始我们的安装之旅把!

获取cephadm

cephadm其实就个python3的脚本而已

连接到node1

wget https://raw.githubusercontent.com/ceph/ceph/octopus/src/cephadm/cephadm
# 如果wget不到该文件 直接浏览器访问复制文件内容到新建文件cephadm即可

# 赋予执行权限
chmod +x cephadm

获取软件包

  • 尽管独立脚本足以启动群集,但是cephadm在主机上安装命令很方便。要安装提供cephadm八达通发行版命令的软件包,请运行以下命令
./cephadm add-repo --release octopus
./cephadm install
  • cephadm通过运行which以下命令来确认该路径现在位于您的PATH中:
which cephadm
  • 成功的命令将返回以下内容:which cephadm
/usr/sbin/cephadm

引导新的集群

# 172.16.2.186为node1的IP
cephadm bootstrap --mon-ip 172.16.2.186

安装完成后会返回一个dashboard页面 直接使用公网IP访问即可,主要确保安全组的端口畅通

将主机添加到集群中

要将每个新主机添加到群集,请执行两个步骤:

在新主机的根用户authorized_keys文件中安装群集的公共SSH密钥:

ssh-copy-id -f -i /etc/ceph/ceph.pub root@*<new-host>*

例如:

ssh-copy-id -f -i /etc/ceph/ceph.pub root@node1
ssh-copy-id -f -i /etc/ceph/ceph.pub root@node2

告诉Ceph,新节点是集群的一部分:

ceph orch host add *newhost*

例如:

ceph orch host add node1
ceph orch host add node1
  1. 将磁盘转化为osd

有几种创建新OSD的方法:

告诉Ceph使用任何可用和未使用的存储设备:

ceph orch apply osd --all-available-devices

从特定主机上的特定设备创建OSD:

ceph orch daemon add osd *<host>*:*<device-path>*

例如:

ceph orch daemon add osd node1:/dev/vdb

注意该磁盘必须是干净的,未被分区的,如果已经使用,可以参考下面的方法

可能需要安装

yum install gdisk

注意 清理硬盘数据(hdd硬盘使用dd,ssd硬盘使用blkdiscard,二选一)

# 检查硬盘路径
fdisk -l
# 删除硬盘分区信息
DISK="/dev/sdb"
sgdisk --zap-all $DISK
# 清理硬盘数据(hdd硬盘使用dd,ssd硬盘使用blkdiscard,二选一)
dd if=/dev/zero of="$DISK" bs=1M count=100 oflag=direct,dsync
# blkdiscard $DISK
# 删除原osd的lvm信息(如果单个节点有多个osd,那么就不能用*拼配模糊删除,而根据lsblk -f查询出明确的lv映射信息再具体删除,参照第5项操作)
ls /dev/mapper/ceph-* | xargs -I% -- dmsetup remove %
rm -rf /dev/ceph-*
# 重启,sgdisk –zzap-all需要重启后才生效
reboot

部署rgw

确保ceph -s的状态为HEALTH_OK

Cephadmradosgw部署为管理特定领域和区域的守护程序的集合。(有关领域和区域的更多信息,请参见Multi-Site。)

请注意,使用cephadm时,radosgw守护程序是通过监视器配置数据库而不是通过ceph.conf或命令行来配置的。如果该配置尚未就绪(通常在本
client.rgw.<realmname>.<zonename>
节中),那么radosgw守护程序将使用默认设置(例如,绑定到端口80)启动。

例如,要在node1、node2和node3上部署3个服务于myorg领域和us-east-1区域的rgw守护程序:

# 如果尚未创建领域,请首先创建一个领域:
radosgw-admin realm create --rgw-realm=myorg --default

# 接下来创建一个新的区域组:
radosgw-admin zonegroup create --rgw-zonegroup=default --master --default

# 接下来创建一个区域:
radosgw-admin zone create --rgw-zonegroup=default --rgw-zone=cn-east-1 --master --default

# 为特定领域和区域部署一组radosgw守护程序:
ceph orch apply rgw myorg cn-east-1 --placement="3 node1 node2 node3"

这一步完成之后,我们可以ceph -s看到

接下来我们,为rgw创建一个用户和开启rgw的dashboard

参考文档 https://blog.csdn.net/qq_40017427/article/details/106235456

# 创建用户
radosgw-admin user create --uid=rgw --display-name=rgw --system

# 提供Dashboard证书 set-rgw-api-access-key set-rgw-api-secret-key是创建用户返回的
# 也可以使用 radosgw-admin user info --uid=rgw 查看
ceph dashboard set-rgw-api-access-key ZW1Y5IWDTB7K85P32H2A
ceph dashboard set-rgw-api-secret-key aehFzwMypF4V8Bm8A3baevHonEmu4E9a4oLZ1umh

# 禁用SSL 可禁用可不禁用
ceph dashboard set-rgw-api-ssl-verify False

# 启用rgw
ceph dashboard set-rgw-api-host node
ceph dashboard set-rgw-api-port 80
ceph dashboard set-rgw-api-scheme http
ceph dashboard set-rgw-api-user-id rgw

radosgw-admin period update --commit

验证见参考文档

做完之一🙅步之后可以重启一下三台服务器

使用python访问ceph对象存储, 如果要前端访问存储资源时候可以用HTML标签来访问,不能浏览器直接访问(前提可以把bucketacl设置成public-read或者把存储对象设置成public-read

参考文档 https://blog.csdn.net/nslogheyang/article/details/100115336

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

cephadm安装ceph v15 的相关文章

  • 6. Proxmox VE安装Ceph Dashboard

    6 Proxmox VE安装Ceph Dashboard span class token function apt get span span class token function install span ceph mgr dash
  • Windows虚拟机通过libvirt使用CEPH RBD

    kvm虚拟机通过 libvirt 挂在 ceph rbd作为数据盘 一 首先确定我们的ceph环境是HEALTH OK span class token punctuation span root 64 cephmon ceph span
  • Ceph性能调优

    1 最佳实践 1 1 基本 监控节点对于集群的正确运行非常重要 xff0c 应当为其分配独立的硬件资源 如果跨数据中心部署 xff0c 监控节点应该分散在不同数据中心或者可用性区域日志可能会让集群的吞吐量减半 理想情况下 xff0c 应该在
  • Ceph OSD扩容与缩容

    在企业生产环境中 xff0c 随着时间的迁移数据会存在磁盘空间不足 xff0c 或者机器节点故障等情况 OSD又是实际存储数据 xff0c 所以扩容和缩容OSD就很有必要性 随着我们数据量的增长 xff0c 后期可能我们需要对osd进行扩容
  • Ceph文件存储-挂载文件系统

    文章目录 1 创建文件系统1 1 方法11 2 方法2 2 挂载文件系统3 卸载 1 创建文件系统 1 1 方法1 span class token number 1 span 创建存储池 ceph osd pool create tgmf
  • CentOS 7部署 Ceph分布式存储架构

    一 概述 随着OpenStack日渐成为开源云计算的标准软件栈 Ceph也已经成为OpenStack的首选后端存储 Ceph是一种为优秀的性能 可靠性和可扩展性而设计的统一的 分布式文件系统 ceph官方文档 http docs ceph
  • 分布式存储Ceph中的逻辑结构Pool和PG

    Ceph中的逻辑对象有Object Pool PG 本文简单介绍相关的概念以及之间的关系 PG状态变化过程等 1 Ceph集群中的逻辑结构 1 1 Object Object是Ceph的最小存储单元 大小可以自己定义通常为2M或4M 每个O
  • 【Ceph】1 pools have many more objects per pg than average

    公司 Ceph 集群从 v12 升级到 v14 后 今天某个 CephFS 的集群收到一个 HEALTH WARN 的告警 具体的 Warning 的信息为 1 pools have many more objects per pg tha
  • Ceph 存储池命令 以及 数据压缩

    文章目录 一 存储池操作 1 1 常用命令 1 2 删除存储池 1 3 存储池配额 1 4 存储池可用参数 二 存储池快照 2 1 创建快照 2 2 验证快照 2 3 回滚快照 2 4 删除快照 三 数据压缩 3 1 启用压缩并指定压缩算法
  • ceph-pg状态详解

    Creating 含义 PG正在创建 引起原因 创建pool的时候 根据指定的pg数量进行创建pg时出现的状态 正常状态 后果 无 解决方案 无需解决 正常状态之一Peering 含义 PG之间进行互联 就其中的对象和元数据状态达成一致 引
  • Ceph17 安装部署

    一 系统资源初始化 ceph可以实现的存储方式 块存储 提供像普通硬盘一样的存储 为使用者提供 硬盘 文件系统存储 类似于 NFS 的共享方式 为使用者提供共享文件夹 对象存储 像百度云盘一样 需要使用单独的客户端 ceph 还是一个分布式
  • sgdisk基本用法

    sgdisk基本用法 简介 sgdisk是Linux下操作GPT分区的工具 就像fdisk是操作MBR分区的工具 关于GPT和MBR的区别请参考 http www anchor com au blog 2012 10 the differe
  • 查询统计Ceph上的pg 总数

    本文中的命令的第一版来源于国外的一个博客 后面的版本为我自己修改的版本 查询的命令如下 ceph pg dump awk pg stat col 1 while col up col col 0 9a f 0 9a f match 0 0
  • ceph集群部署

    一 ceph特点高性能 1 摒弃了传统的集中式存储元数据寻址的方案 采用CRUSH算法 数据分布均衡 并行度高 2 考虑了容灾域的隔离 能够实现各类负载的副本放置规则 例如跨机房 机架 感知等 3 能够支持上千个存储节点的规模 支持TB到P
  • ceph pg inconsistent不一致,ceph pg repair无效

    更多ceph相关文章详见知乎ceph专栏 聊聊ceph ceph pg repair指令执行后 无效原因分析 ceph pg repair这一操作会先进行pg scrub 得到该PG中不一致的对象 然后再进行recovery pg scru
  • s3cmd put 时提示 ERROR: S3 error: 403 (QuotaExceeded)

    配置里的rgw配额是10000000写满 s3cmd put 时提示 ERROR S3 error 403 QuotaExceeded rgw bucket default quota max objects 值为 1 查看配额信息 rad
  • cehp 维护(二)常见告警维护

    零 修订记录 序号 修订时间 修订内容 1 2021 11 18 新增 一 摘要 笨猪主要介绍ceph常见告警及维护方法或过程中遇到的问题 二 环境信息 2 1 ceph版本 cephadmin proceph01 ceph v ceph
  • Ceph入门到精通-smartctl 查看硬盘参数

    smartctl 参数含义 Model Family Toshiba s Enterprise Capacity HDD Device Model TOSHIBA MG08ACss Serial Number sssssss LU WWN
  • Ceph:每个 OSD PG 太多

    我使用推荐值配置了 Ceph 使用文档中的公式 我有 3 个 OSD 我的配置 我已将其放在监视器节点和所有 3 个 OSD 上 包括以下内容 osd pool default size 2 osd pool default min siz
  • Flink 使用 Ceph 作为持久存储

    Flink 文档建议 Ceph 可以用作状态的持久存储 https ci apache org projects flink flink docs release 1 3 dev stream checkpointing html http

随机推荐

  • Python菜鸟教程(一)-爬b站数据

    BeautifulSoup BeautifulSoup 我们爬去网站主要用到的库 安装BeautifulSoup pip span class hljs keyword install span beautifulsoup4 安装了pyth
  • webdriver.Chrome()提示'chromedriver' executable needs to be in PATH.

    webdriver Chrome 提示 chromedriver executable needs to be in PATH 解决办法 xff1a 1 下载和你当前的chrome对应版本的chromedriver chrome和Chrom
  • 安装 WSL2 Ubuntu20.04 报 0xc03a001a

    错误 xff1a WslRegisterDistribution failed with error 0xc03a001a 解决方案 xff1a 找到 C Users 你的用户名 AppData Local Packages找到 Canon
  • debian/ubuntu arm/arm64 国内源

    最近搞linux系统整理了一些源 xff0c 希望对大家有用 ubuntu14 04 armhf deb http mirrors ustc edu cn ubuntu ports trusty main multiverse restri
  • ftp命令行访问

    许多时候 xff0c 出于条件的限制 xff0c 我们无法使用 FTP 软件上下载文件 比如 xff0c 在某些对安全性或隐私有要求的主机上就不允许安装此类软件 此时 xff0c 要想实现文件的上传下载 xff0c 我们就只好使用系统自带的
  • 问题记录:Start : 由于出现以下错误,无法运行此命令: 系统找不到指定的文件。。

    执行 xff1a openssl req x509 nodes days span class token number 365 span newkey rsa 2048 keyout mykey key out mycert pem ju
  • 树莓派系统的安装【超详细、超简单】

    如何安装树莓派的系统 以及 树莓派新系统SSH连接被拒绝的解决方法 1 下载树莓派系统 下载地址 xff1a https www raspberrypi org software operating systems 选择合适的下载即可 2
  • Win10系统双击无法打开图片的解决方法

    一位用户将电脑系统升级到Windows10正式版后 xff0c 发现计算机中的图片双击打不开了 xff0c 这是怎么回事呢 xff1f 其实 xff0c 该问题是由于win10系统默认情况下将 照片查看器 屏蔽所导致的 接下来 xff0c
  • 入栈出栈顺序

    转自 xff1a https blog csdn net qq 1932568757 article details 82752325 问题 xff1a 已知入栈顺序 xff0c 找出不可能得出栈顺序 已知一个栈得入栈顺序为ABCDEF x
  • 远程连接一闪而过或登录后无法正常操作的解决方法

    今天我远程登录到服务器上 xff08 win2003 xff09 修改网站某目录的属性 xff0c 由于该目录下的文件达好几万个 xff0c 所以我操作完后就等待完成 xff0c 把远程窗口最小化后 xff0c 继续在本地电脑做其他的事情
  • Copilot使用教程

    官网及申请地址 xff1a https copilot github com 教程包含如下内容 xff1a copilot简单介绍使用python对copilot做些简单使用测试使用copilot对LeetCode 题目解答 一 copil
  • Python打包与解压zip

    打包 shutil模块 shutil make archive base name format root dir base dir verbose dry run owner group logger 参数说明 xff1a base na
  • powershell批量修改文件名称。

    下面的代码能够给桌面 都彭 文件夹下的所有目录文件名称增加都 都彭 两个字 Get ChildItem Path F Desktop 都彭 获取这个目录下的所有文件 增加recurse参数后能够对这个目录进行递归获包含子目录的所有文件名 利
  • ThinkPad相机打开灰色加斜杠问题解决!!!

    问题是这样的 xff01 xff01 xff01 很久前是这样的 xff0c 一直弄不好 xff0c 删了驱动 xff0c 重装驱动 xff0c 注册表弄了 xff0c 反正是各种弄 xff0c 各种帖子找了还是不行 xff01 xff01
  • SSL error when connecting to the Jack server. Try ‘jack-diagnose‘

    Android7 编译出现jack admin启动问题 xff1a log如下 xff1a Launching Jack server java XX MaxJavaStackTraceDepth 61 1 Djava io tmpdir
  • 【IOS】史上最全文件操作NSFileManager

    功能列表 判断文件是否存在 43 BOOL fileExistsAtPath NSString aPath 判断文件是否存在Documents下 43 BOOL fileExistsAtDocumentsWithFileName NSStr
  • 【IOS】StoryBoard传值TableView点击Cell跳转传值(segue)

    问题 void prepareForSegue UIStoryboardSegue segue sender id sender 以上方法会先于 void tableView UITableView tableView didSelectR
  • Android Windows虚拟串口调试

    1 Configure Virtual Serial Port Driver 创建虚拟串口 2 设置Android模拟器虚拟串口 进入Android SDK的tools目录 xff0c 通过cmd执行命令 xff1a emulator ex
  • 贪心算法之木棍问题

    问题 H 木棒 时间限制 1 Sec 内存限制 32 MB 提交 147 解决 60 提交 状态 题目描述 现有n根木棒 xff0c 已知它们的长度和重量 要用一部木工机一根一根地加工这些木棒 该机器在加工过程中需要一定的准备时间 xff0
  • cephadm安装ceph v15

    cephadm 安装ceph v15准备 参考安装文档 有问题可以直接留言 xff0c 大家一起交流 xff0c 以下都是部署的比较基础的东西 https docs ceph com en latest cephadm http www d