ceph分布式文件存储性能调优

2023-11-05

一、硬件调优

1、NVMe SSD 调优
● 目的
为减少数据跨片开销。
● 方法
将NVMe SSD与网卡插在统一Riser卡。

2、内存插法调优
● 目的
内存按1dpc方式插将获得最佳性能,即将DIMM0插满,此时内存带宽最大。
● 方法
优先插入DIMM0,即插入DIMM000、010、020、030、040、050、100、110、
120、130、140、150插槽。三位数字中,第一位代表所属CPU,第二位代表内存
通道,第三位代表DIMM,优先将第三位为0的插槽按内存通道从小到大依次插
入。

3、public网卡和cluster网卡均衡
将public网卡和cluster网卡插在不同cpu下。

二、BIOS配置

1、Power Policy:performance
2、内存刷新速率:64ms
3、SMMU Disable
4、CPU预取打开

三、网络配置

1、Bond模式
public-bond和cluster-bond均组2个10GE口成一个bond。bond具体配置参数如下。

BONDING_OPTS="mode=2 miimon=1000 xmit_hash_policy=layer3+4"

2、网卡参数配置
调节MTU和网卡队列大小,脚本如下。

for i in `ifconfig | grep flags | awk '{print $1}' | sed "s/://g"`; do ifconfig $i  mtu 9000 up ; done;

for i in `ifconfig | grep flags | awk '{print $1}' | sed "s/://g"`
do 
	ethtool -G $i rx 4096
	ethtool -G $i tx 4096
done;

3、关闭系统中断均衡服务

systemctl stop irqbalance
systemctl disable irqbalance

4、打开lro

ethtool -K enp130s0f0 lro on

查看是否打开:

ethtool -k enp130s0f0 | grep large-receive-offload

5、ring_buffer调整

ethtool -G enp130s0f0 rx 4096 tx 4096

查看:ethtool -g enp130s0f0

6、网卡软中断绑核
①. 关闭irqbalance服务。
②. 查询网卡归属于哪个NUMA节点。

cat /sys/class/net/enp130s0f0/device/numa_node

③. 查询该NUMA节点对应哪些CPU core。

lscpu

④. 查询网卡中断号。

ls /sys/class/net/enp189s0f1/device/msi_irqs/
cat /proc/interrupts | grep enp130s0f0 | awk -F ':' '{print $1}'

⑤. 将软中断绑定到该NUMA节点对应的core上。

echo <core编号> > /proc/irq/ <中断号> smp_affinity_list。

四、OS配置

将如下参数放入/etc/profile里面,并执行source /etc/profile。

ulimit -u 1000000
ulimit -n 1000000
ulimit -d unlimited
ulimit -m unlimited
ulimit -s unlimited
ulimit -t unlimited
ulimit -v unlimited
ulimit -l 1024000

五、硬盘调度算法

1、将hdd的调度算法修改为mq-deadline:

echo deadline > /sys/block/sda/queue/scheduler
echo deadline > /sys/block/sdb/queue/scheduler
echo deadline > /sys/block/sdc/queue/scheduler
echo deadline > /sys/block/sdd/queue/scheduler
echo deadline > /sys/block/sde/queue/scheduler
echo deadline > /sys/block/sdf/queue/scheduler
echo deadline > /sys/block/sdg/queue/scheduler
echo deadline > /sys/block/sdh/queue/scheduler
echo deadline > /sys/block/sdi/queue/scheduler
echo deadline > /sys/block/sdj/queue/scheduler
echo deadline > /sys/block/sdk/queue/scheduler
echo deadline > /sys/block/sdl/queue/scheduler
echo deadline > /sys/block/sdm/queue/scheduler
echo deadline > /sys/block/sdn/queue/scheduler
echo deadline > /sys/block/sdo/queue/scheduler
echo deadline > /sys/block/sdp/queue/scheduler
echo deadline > /sys/block/sdq/queue/scheduler
echo deadline > /sys/block/sdr/queue/scheduler
echo deadline > /sys/block/sds/queue/scheduler
echo deadline > /sys/block/sdt/queue/scheduler

2、将SSD的调度算法修改为none:

echo none > /sys/block/nvme0n1/queue/scheduler
echo none > /sys/block/nvme0n2/queue/scheduler

六、软件层面

1、 Kernel pid max 设置内核PID上限到最大值

echo 4194303 > /proc/sys/kernel/pid_max

2、 设置MTU,交换机端需要支持该功能,系统网卡设置才有效果
配置文件追加MTU=9000

3、 read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作

echo "8192" > /sys/block/sda/queue/read_ahead_kb
echo "8192" > /sys/block/sdb/queue/read_ahead_kb
echo "8192" > /sys/block/sdc/queue/read_ahead_kb
echo "8192" > /sys/block/sdd/queue/read_ahead_kb
echo "8192" > /sys/block/sde/queue/read_ahead_kb
echo "8192" > /sys/block/sdf/queue/read_ahead_kb
echo "8192" > /sys/block/sdg/queue/read_ahead_kb
echo "8192" > /sys/block/sdh/queue/read_ahead_kb
echo "8192" > /sys/block/sdi/queue/read_ahead_kb
echo "8192" > /sys/block/sdj/queue/read_ahead_kb
echo "8192" > /sys/block/sdk/queue/read_ahead_kb
echo "8192" > /sys/block/sdl/queue/read_ahead_kb
echo "8192" > /sys/block/sdm/queue/read_ahead_kb
echo "8192" > /sys/block/sdn/queue/read_ahead_kb
echo "8192" > /sys/block/sdo/queue/read_ahead_kb
echo "8192" > /sys/block/sdp/queue/read_ahead_kb
echo "8192" > /sys/block/sdq/queue/read_ahead_kb
echo "8192" > /sys/block/sdr/queue/read_ahead_kb
echo "8192" > /sys/block/sds/queue/read_ahead_kb
echo "8192" > /sys/block/sdt/queue/read_ahead_kb
echo "8192" > /sys/block/nvme0n1/queue/read_ahead_kb
echo "8192" > /sys/block/nvme1n1/queue/read_ahead_kb

4、 swappiness, 关闭虚拟内存

echo “vm.swappiness = 0″/etc/sysctl.conf ;  sysctl –p

5、bcache顺序中断

echo 0 > /sys/block/bcache0/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache1/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache2/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache3/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache4/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache5/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache6/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache7/bcache/sequential_cutoff
echo 0 > /sys/block/bcache8/bcache/sequential_cutoff
echo 0 > /sys/block/bcache9/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache10/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache11/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache12/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache13/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache14/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache15/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache16/bcache/sequential_cutoff
echo 0 > /sys/block/bcache17/bcache/sequential_cutoff
echo 0 > /sys/block/bcache18/bcache/sequential_cutoff 
echo 0 > /sys/block/bcache19/bcache/sequential_cutoff 

6、bcache配置

for var in `ls -d /sys/fs/bcache/*`
do
echo 0 >$var/congested_read_threshold_us 
echo 0 >$var/congested_write_threshold_us
done

7、设置最小回刷速度为128k(默认8)

echo 512 > /sys/block/sda/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdb/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdc/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdd/bcache/writeback_rate_minimum
echo 512 > /sys/block/sde/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdf/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdg/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdh/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdi/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdj/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdk/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdl/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdm/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdn/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdo/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdp/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdq/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdr/bcache/writeback_rate_minimum
echo 512 > /sys/block/sds/bcache/writeback_rate_minimum
echo 512 > /sys/block/sdt/bcache/writeback_rate_minimum

8、为所有块设备开启writeback模式

echo writeback > /sys/block/sda/bcache/cache_mode
echo writeback > /sys/block/sdb/bcache/cache_mode
echo writeback > /sys/block/sdc/bcache/cache_mode
echo writeback > /sys/block/sdd/bcache/cache_mode
echo writeback > /sys/block/sde/bcache/cache_mode
echo writeback > /sys/block/sdf/bcache/cache_mode
echo writeback > /sys/block/sdg/bcache/cache_mode
echo writeback > /sys/block/sdh/bcache/cache_mode
echo writeback > /sys/block/sdi/bcache/cache_mode
echo writeback > /sys/block/sdj/bcache/cache_mode
echo writeback > /sys/block/sdk/bcache/cache_mode
echo writeback > /sys/block/sdl/bcache/cache_mode
echo writeback > /sys/block/sdm/bcache/cache_mode
echo writeback > /sys/block/sdn/bcache/cache_mode
echo writeback > /sys/block/sdo/bcache/cache_mode
echo writeback > /sys/block/sdp/bcache/cache_mode
echo writeback > /sys/block/sdq/bcache/cache_mode
echo writeback > /sys/block/sdr/bcache/cache_mode
echo writeback > /sys/block/sds/bcache/cache_mode
echo writeback > /sys/block/sdt/bcache/cache_mode

9、IO路径跟踪

for var in `ls -d /sys/fs/bcache/*`
do
echo 0 >$var/congested_read_threshold_us 
echo 0 >$var/congested_write_threshold_us
done

10、脏数据回写比例

echo 5 > /proc/sys/vm/dirty_background_ratio
echo 10 > /proc/sys/vm/dirty_ratio

11、bcache配置(默认10、30)

for f in `ls -d /sys/block/bcache*`
do
        echo writeback > $f/bcache/cache_mode
        echo 20 > $f/bcache/writeback_percent
        echo 80 > $f/bcache/writeback_delay
done

12、所有进程打开文件数量file-max设置
设置为cat /proc/meminfo | grep MemTotal |awk '{print$2}'所查看到的值
执行:echo ${file-max} > /proc/sys/fs/file-max
file-max为cat /proc/meminfo | grep MemTotal |awk '{print$2}'所查看到的值

13、nr_requests(默认256)
查看:cat /sys/block/sdb/queue/nr_requests
设置:echo 512 > /sys/block/sdb/queue/nr_requests

echo 512 > /sys/block/sda/queue/nr_requests
echo 512 > /sys/block/sdb/queue/nr_requests
echo 512 > /sys/block/sdc/queue/nr_requests
echo 512 > /sys/block/sdd/queue/nr_requests
echo 512 > /sys/block/sde/queue/nr_requests
echo 512 > /sys/block/sdf/queue/nr_requests
echo 512 > /sys/block/sdg/queue/nr_requests
echo 512 > /sys/block/sdh/queue/nr_requests
echo 512 > /sys/block/sdi/queue/nr_requests
echo 512 > /sys/block/sdj/queue/nr_requests
echo 512 > /sys/block/sdk/queue/nr_requests
echo 512 > /sys/block/sdl/queue/nr_requests
echo 512 > /sys/block/sdm/queue/nr_requests
echo 512 > /sys/block/sdn/queue/nr_requests
echo 512 > /sys/block/sdo/queue/nr_requests
echo 512 > /sys/block/sdp/queue/nr_requests
echo 512 > /sys/block/sdq/queue/nr_requests
echo 512 > /sys/block/sdr/queue/nr_requests
echo 512 > /sys/block/sds/queue/nr_requests
echo 512 > /sys/block/sdt/queue/nr_requests

七、ceph参数调优

[global]
osd pool default size=3
osd memory target=4294967296
osd pool default min size=1
max open files=131072
osd memory target=4294967296

[mon]
mon clock drift allowed=1
mon osd min down reporters=13
mon osd down out interval=600

[osd]
osd journal size=20000
osd max write size=512
osd client message size cap=2147483648
osd deep scrub stride=131072
osd op threads=16
osd disk threads=4
osd map cache size=1024
osd map cache bl size=128
osd recovery op priority=2
osd recovery max active=10
osd max backfills=4
osd min pg log entries=30000
osd max pg log entries=100000
osd mon heartbeat interval=40
ms dispatch throttle bytes=1048576000
objecter inflight ops=819200
osd op log threshold=50
osd crush chooseleaf type=0
journal max write bytes=1073714824
journal max write entries=10000
journal queue max ops=50000
journal queue max bytes=10485760000

[client]
rbd cache=True
rbd cache size=335544320
rbd cache max dirty=134217728
rbd cache max dirty age=30
rbd cache writethrough until flush=False
rbd cache max dirty object=2
rbd cache target dirty=235544320
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

ceph分布式文件存储性能调优 的相关文章

  • Windows虚拟机通过libvirt使用CEPH RBD

    kvm虚拟机通过 libvirt 挂在 ceph rbd作为数据盘 一 首先确定我们的ceph环境是HEALTH OK span class token punctuation span root 64 cephmon ceph span
  • ceph (cephadm)集群部署

    ceph 集群部署 cephadm 方法1 xff1a ansible ceph ansible使用Ansible部署和管理Ceph集群 xff08 1 xff09 ceph ansible被广泛部署 xff08 2 xff09 ceph
  • ceph delete pool

    参考 xff1a Pools Ceph Documentation 前言 xff1a 网上的写的乱七八糟不是你抄我就是我抄你 写的完全瞎扯 简直看不下去 官网截图 xff1a 准备 1 查看pool名称 ceph osd lspools 创
  • ceph学习(故障恢复)——mon全部故障,从osd中恢复集群

    在生产环境中 ceph集群要求最少配置3个MON 一般情况下很少出现3个MON同时挂掉的情况 但是也不排除出现这种情况的可能 如果集群中的所有MON都损坏了 是不是集群数据就丢失了呢 能不能恢复集群 当然是可以的 ceph中国的一位开发者写
  • k8s使用ceph rbd

    环境 节点 k8s角色 ceph 安装组件 192 168 122 120 k8s master ceph admin mon1 osd0 osd1 osd2 osd9 192 168 122 121 k8s slave1 ceph mon
  • Ubuntu22.04搭建ceph 集群

    Ceph是一个开源的 提供软件定义的 统一的分布式存储系统 设计初衷是提供较好的性能 可靠性和可扩展性 open source distributed reliable scalable unified 统一的 意味着一套存储系统同时提供块
  • PG概述及OSD对PG状态的影响

    前言 随着分布式存储的广泛应用 目前对PG的关注越来越多 本文基于ONStor分布式存储系统简要介绍一下PG的状态变化 重点说明OSD对PG状态的影响 一 Ceph分布式存储概述 Ceph是一个统一的分布式存储系统 设计初衷是提供较好的性能
  • Ceph 存储池命令 以及 数据压缩

    文章目录 一 存储池操作 1 1 常用命令 1 2 删除存储池 1 3 存储池配额 1 4 存储池可用参数 二 存储池快照 2 1 创建快照 2 2 验证快照 2 3 回滚快照 2 4 删除快照 三 数据压缩 3 1 启用压缩并指定压缩算法
  • Ceph运维存储 命令管理操作

    分布式存储运维操作 集群服务管理常用命令 统一节点上的ceph conf文件 将admin节点上修改的ceph conf 推送给所有其他节点 overwrite conf强制覆盖 ceph deploy overwrite conf con
  • Ceph入门到静态-deep scrub 深度清理处理

    9 6 洗刷 REPORT DOCUMENTATION BUG 除了为对象创建多个副本外 Ceph 还可通过洗刷归置组来确保数据完整性 请参见第 1 3 2 节 归置组 了解有关归置组的详细信息 Ceph 的洗刷类似于在对象存储层运行 fs
  • 【重识云原生】第三章云存储第一节——分布式云存储总述

    重识云原生系列 专题索引 第一章 不谋全局不足以谋一域 第二章计算第1节 计算虚拟化技术总述 第二章计算第2节 主流虚拟化技术之VMare ESXi 第二章计算第3节 主流虚拟化技术之Xen 第二章计算第4节 主流虚拟化技术之KVM 第二章
  • Ceph OSD Down

    CEPH集群跑了一段时间后有几个OSD变成down的状态了 但是我用这个命令去activate也不行 ceph deploy osd activate osd1 dev sdb2 dev sdb1 只能把osd从集群中移除 然后再重建了 这
  • Ceph入门到精通-ceph对于长文件名如何处理

    RADOS object with short name 上一篇博文 我们将介绍了对象相关的数据结构ghobject t 以及对象在底层文件系统存储的文件名 以及如何从文件名对应到 ghobject t对象 映射关系如下图所示 这里面有一个
  • ceph环境清理

    第一步 在 root ceph 目录下执行 第一个节点 ceph deploy purge ceph01 ceph02 ceph03 ceph04 ceph deploy purgedata ceph01 ceph02 ceph03 cep
  • sgdisk基本用法

    sgdisk基本用法 简介 sgdisk是Linux下操作GPT分区的工具 就像fdisk是操作MBR分区的工具 关于GPT和MBR的区别请参考 http www anchor com au blog 2012 10 the differe
  • ceph pg inconsistent不一致,ceph pg repair无效

    更多ceph相关文章详见知乎ceph专栏 聊聊ceph ceph pg repair指令执行后 无效原因分析 ceph pg repair这一操作会先进行pg scrub 得到该PG中不一致的对象 然后再进行recovery pg scru
  • rdb map出錯rbd sysfs write failed

    創建了一個rbd鏡像 rbd create size 4096 docker test 然後 在Ceph client端將該rbd鏡像映射為本地設備時出錯 rbd map docker test name client admin rbd
  • Ceph 4 slow ops, oldest one blocked for 638 sec, mon.cephnode01 has slow ops

    因为实验用的是虚拟机的关系 晚上一般会挂起 第二天早上都能看到 4 slow ops oldest one blocked for 638 sec mon cephnode01 has slow ops的报错 虽然不影响使用 但看着有点难受
  • Ceph入门到精通- smartctl -l error检查硬盘指标

    smartctl l error 是一个 Linux 命令 用于查看磁盘驱动器的 SMART Self Monitoring Analysis and Reporting Technology 错误日志 SMART 是一种技术 能够监测硬盘
  • Ceph入门到精通-smartctl 查看硬盘参数

    smartctl 参数含义 Model Family Toshiba s Enterprise Capacity HDD Device Model TOSHIBA MG08ACss Serial Number sssssss LU WWN

随机推荐

  • 2023届电子设计大赛E题(控制类)

    先上视频 1 首先我们来看看题目 题目还是比较简单明白的 基础题只需要用到一个云台去做这个题目 发挥题需要用到两个云台去解决 首先前几题除了写死没有更好的办法了 我们直接来说一下发挥题怎么做吧 怎么去解决这个问题吧 做发挥题的时候我是遇到了
  • 西电B测——基于simulink的2PSK和2DPSK调制解调系统实现

    这是学校的B级测试实验 仅供学习交流使用 误码率曲线绘制需要用到bertool工具 bertool工具教程 通信专业Simulink 画误码率曲线 使用bertool工具 Enpiyahh的博客 CSDN博客 simulink误码率曲线 报
  • MySQL中对于事务完整的超详细介绍

    MySQL事务详细理解 一 事务基本介绍 1 什么是事务 2 为什么出现事务 3 事务四大特性 原子性 一致性 隔离性 持久性 4 事务的隔离级别 四种级别 不同隔离级别所具有的问题 二 操作演示 1 自动提交和手动提交 2 回滚操作 3
  • 组和OU介绍

    组和OU介绍 https daiker gitbook io windows protocol ldap pian 9 0x00 前言 这篇文章主要介绍AD里面的组和组织单位 OU 0x01 一些LDAP高级搜索语法 1 LDAP 查找中的
  • argparse.ArgumentParser()用法解析

    此模块有中文文档 建议看到此文的读者链接到中文文档查看 本文只是自己学习 个人理解的重点总结 argparse模块 官方文档 argparse是一个Python模块 命令行选项 参数和子命令解析器 argparse 模块可以让人轻松编写用户
  • unable to access android sdk add-on list解决方案

    unable to access android sdk add on list解决方案 问题 原因 解决方案 1 配置Proxy 2 跳过检测 在Android Studio的安装目录下 找到 bin idea properties 在尾
  • List集合遍历过程中修改元素,这个坑踩一次就够了

    简介 java系列技术分享 持续更新中 初衷 一起学习 一起进步 坚持不懈 如果文章内容有误与您的想法不一致 欢迎大家在评论区指正 希望这篇文章对你有所帮助 欢迎点赞 收藏 留言 更多文章请点击 文章目录 问题描述 一 将List集合中的每
  • 华为OD机试 - 找单词(Python)

    题目描述 给一个字符串和一个二维字符数组 如果该字符串存在于该数组中 则按字符串的字符顺序输出字符串每个字符所在单元格的位置下标字符串 如果找不到返回字符串 N 1 需要按照字符串的字符组成顺序搜索 且搜索到的位置必须是相邻单元格 其中 相
  • centos7或8安装google-authenticator身份令牌

    1 系统基础环境 说明 使用云服务器安装与本地系统两种方式安装google authenticator 基于云服务器centos7 root linux tes lsb release a LSB Version core 4 1 amd6
  • 什么是HTML语义化标签?常见HTML语义化标签大全,以及不同标签比较

    一 什么是HTML语义化标签 语义化的标签 旨在让标签有自己的含义 p 一行文字 p span 一行文字 span 如上代码 p 标签与 span 标签都区别之一就是 p 标签的含义是 段落 而 span 标签责没有独特的含义 二 语义化标
  • SQL:基础概念 + 在线数据库

    文章目录 1 基础 2 数据库基础概念整理 2 1 ER图 2 2 数据库管理工具 2 3 在线数据库 1 基础 推荐阅读 https www w3school com cn sql sql orderby asp https www ru
  • 优化器算法总结(BGD、SGD、MBGD、Momentum、NAG、Adagrad 未总结完)

    参考的两篇博文 1 优化算法总结 深度学习 https blog csdn net fengzhongluoleidehua article details 81104051 2 深度学习 优化器算法Optimizer详解 BGD SGD
  • Spring-动态代理深入了解

    前言 本篇的Spring AOP系类文章第二篇扩展了Spring 动态代理然后开发了简易的AOP类 个人主页 尘觉主页 个人简介 大家好 我是尘觉 希望我的文章可以帮助到大家 您的满意是我的动力 在csdn获奖荣誉 csdn城市之星2名 J
  • JVM内存溢出和内存泄漏的区别

    1 概念的区分 1 1 内存泄露 memory leak 程序运行结束后 没有释放 所占用的内存空间 一次内存泄漏 似乎不会有大的影响 但内存泄漏 不断累积 最终可用内存会变得越来越少 比如说 总内存大小是100 MB 有40MB的内存一直
  • 一个无源晶振和外围电路(如图)组成的振荡电路,就能发挥类似有源晶振的功能吗?

    一个无源晶振和外围电路 如图 组成的振荡电路 就能发挥类似有源晶振的功能吗 2012 06 21 22 01 曾佳乐曾佳乐曾 分类 工程技术科学 浏览1232次 从output端输出的电压只有正半周还是正半周 负半周都有 这个电路通电后 能
  • numpy平均值插补步骤及详细说明

    numpy平均值插补步骤及详细说明 1 导入numpy工具并读取数据 2 定义平均值插补函数 3 调用平均值插补函数 4 插补结果 利用 numpy对数据进行插补是一个非常常见的方法 代码也很多 但是网上的代码一般没有很详细的解释 不利于初
  • 虚拟IP原理

    高可用性HA High Availability 指的是通过尽量缩短因日常维护操作 计划 和突发的系统崩溃 非计划 所导致的停机时间 以提高系统和应用的可用性 HA系统是目前企业防止核心计算机系统因故障停机的最有效手段 实现HA的方式 一般
  • java x86 x64_jdk x86与jdk x64 有什么区别

    展开全部 1 jdk x86与jdk x64版本不同 jdk x86 32位版e68a843231313335323631343130323136353331333431366239 jdk x64 64位版 2 jdk x86与jdk x
  • c++ enable_shared_from_this

    std enable shared from this 是一个类模板 那它是用来干嘛的呢 光看它的名字可能可以猜出它是 返回指向当前对象的shared ptr智能指针 在说明它的作用前我们可以看一下如下代码 include
  • ceph分布式文件存储性能调优

    ceph分布式文件存储性能调优 一 硬件调优 二 BIOS配置 三 网络配置 四 OS配置 五 硬盘调度算法 六 软件层面 七 ceph参数调优 一 硬件调优 1 NVMe SSD 调优 目的 为减少数据跨片开销 方法 将NVMe SSD与