大数据技术

2023-05-16

备用:

2. 配置本地源。通过比赛平台提供源文件下载路径,将本地源文件下载到 /etc/yum.repos.d/
目录下(三台机器都执行)。
发信号给 yum 进程: pkill -9 yum
进入 yum 源配置文件: cd /etc/yum.repos.d
删除所有文件: rm -rf *
下载 yum 源: wget http://10.10.30.2:8000/bigdata/repofile/bigdata.repo
清除 YUM 缓存: yum clean all

 

 

主机登录:

三台主机ssh登录

       登录三台主机,用后面的ip

1.   ssh root@39.101.172.45    然后黏贴密码登录

关闭防火墙

          三台都得关闭

2 . systemctl stop firewalld        systemctl disable firewalld    用bash刷新一下

3.  修改主机名字    hostnamectl set-hostname master      三台都得修改  bash刷新看一下

4 . 修改host    vim /etc/hosts   

        前面的ip   主机名    三台机器都修改下

5..    ssh免密登录

                      

先   ssh-keygen -t rsa     再把公钥写进authorized里               cat     id_rsa.pub > authorized_keys  

然后写    chmod 600 authorized_keys        重启ssh协议    systemctl restart sshd

     分发密码    给slave1,slave2

 

ssh-copy-id root@slave1    ssh-copy-id root@slave2  

 

下载ntp服务   

      

      

命令:  wget htto://172.16.47.240/bigdata/repofile/bigdata.repo

先到/etc/yum/repos.d 目录下,再用命令。

然后分发给slave1,slave2  

命令:  scp bigdata.repo root@slave1:/etc/yum.repos.d/     scp bigdata.repo root@slave2:/etc/yum.repos.d/   

三台服务器:安装ntp    命令: yum install ntp -y  (备:yum install -y ntp)

在master下设置时间:

     

命令:  tzselect  

 

三台主机都配置  vim /etc/ntp.conf

三台主机都再重启: systemctl restart ntpd

检查下:

 

  master中操作:

下载jdk: 在bigdata  tar  里有jdk

找到jdk复制下路径

创建:cd /usr/    mkdir java   

进入:cd java/    wget http://172.16.47.240/bigdata/bigdata_tar/jdk-8u171-linux-x64.tar.gz

解压jdk: tar j 

进入jdk:pwd 获取路径

配置环境变量: vim /etc/profile

# set java home

export JAVA_HOME=/usr/java/jdk1.8.0_171

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=$JAVA_HOME/lib/export

export PATH JAVA_HOME CLASSPATH

保存完后生效  : source /etc/profile

检查:  java -version

master弄好后,分发jdk给slave1,slave2  命令: scp -r /usr/java/ root@slave1:/usr/     scp -r /usr/java/ root@slave2:/usr/ 

分发环境变量: scp /etc/profile root@slave1:/etc/  scp /etc/profile root@slave2:/etc/两台机器

另两台都生效下:  source /etc/profile

检查: java -version

 

集群搭建:

 

创建,进入,下载,zookeeper解压包在bigdata  tar里

cd /usr    mkdir zookeeper   cd zookeeper    wget http://172.16.47.240/bigdata/bigdata_tar/zookeeper-3.4.10.tar.gz

mkdir zkdatalog
mkdir zkdata

解压: tar -xzvf z

配置环境变量:  vim /etc/profile

# set zh home

export ZOOKEEPER_HOME=/usr/zookeeper/zookeeper-3.4.10

export PATH=$PATH:$ZOOKEEPER_HOME/bin

删除一个文件: rm -fr ./*.cmd

生效: source /etc/profile

先改名字,再配置:

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg   配置存储路径   集群地址  

  

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/zookeeper/zookeeper-3.4.10/zkdata
clientPort=2181
dataLogDir=/usr/zookeeper/zookeeper-3.4.10/zkdatalog
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
 

 

 

然后:三台主机

在每个zookeeper的 zkdata 目录下创建一个 myid 文件,内容分别是1、2、3 

分发两台:

 
scp -r /usr/zookeeper root@slave1:/usr/
scp -r /usr/zookeeper root@slave2:/usr/
 

别忘了: 修改myid slave1 - 2   slave2  - 3

开启服务: bin/zkServer.sh start
查看状态: bin/zkServer.sh status
 
 
4. hadoop集群搭建:
 
4.1 解压安装包,配置环境变量
1. 创建工作路径 /usr/hadoop ,下载相应软件,解压至工作路径。
2. 添加 hadoop 环境变量(三台机器执行)
 
vim /etc/profile
添加:
# # #HADOOP
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
export CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib
export PATH=$PATH:$HADOOP_HOME/bin

生效:  

source /etc/profile
4.2 配置 hadoop 各组件
 
cd $HADOOP_HOME/etc/hadoop
 
vim hadoop-env.sh
 
输入以下内容,修改 java 环境变量:
export JAVA_HOME=/usr/java/jdk1.8.0_171
 
 
2. 编辑 core-site.xml 文件
 
vim core-site.xml
添加:
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/hadoop-2.7.3/hdfs/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>fs.checkpoint.period</name>
<value>60</value>
</property>
<property>
<name>fs.checkpoint.size</name>
<value>67108864</value>
</property>

 

3. 编辑 mapred-site.xml
 
hadoop 是没有这个文件的,需要将 mapred-site.xml.template 样本文件复制为
mapred-site.xml ,对其进行编辑:
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
 
<configuration></configuration> 中加入以下代码:
<property>
<!--指定 Mapreduce 运行在 yarn 上-->
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
注意保存退出。
 
4. 修改 yarn-site.xml
vim yarn-site.xml
<configuration></configuration> 中加入以下代码:
<!-- 指定 ResourceManager 的地址 -->
<property>
<name>yarn.resourcemanager.address</name>
<value>master:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:18030</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:18088</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
<!-- 指定 reducer 获取数据的方式-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
 
 
5. 编辑 hdfs-site.xml 配置文件
vim hdfs-site.xml
<configuration></configuration> 中加入以下代码:
 
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.3/hdfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.3/hdfs/data</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
 
6. 编写 slaves master 文件
编写 slaves 文件,添加子节点 slave1 slave2
编写 master 文件,添加主节点 master
 
7. 分发 hadoop 文件到 slave1 slave2 两个子节点
scp -r /usr/hadoop root@slave1:/usr/
scp -r /usr/hadoop root@slave2:/usr/
 
注意:
slave 各节点上还需要配置环境变量,
cd $HADOOP_HOME/etc/hadoop
vim hadoop-env.sh
 
export JAVA_HOME=/usr/java/jdk1.8.0_171
 
 
8. 格式化 hadoop ( 仅在 master 中进行操作 )
格式化 namenode hadoop namenode -format
 
 
9. 开启 hadoop 集群
仅在 master 主机上开启操作命令。它会带起从节点的启动。 (仅在 master 中进行操作)
回到 hadoop 目录: cd /usr/hadoop/hadoop-2.7.3
主节点开启服务: sbin/start-all.sh
 
11. 使用 hadoop 命令“ hadoop fs ”进行相关操作。
 
 
5 、安装 hbase
 
1. 创建工作路径 /usr/hbase ,下载相应软件,解压至工作路径。
2. 进入 hbase 配置目录 conf ,修改配置文件 hbase-env.sh ,添加配置变量。
cd /usr/hbase/hbase-1.2.4/conf
vim hbase-env.sh
添加:
export HBASE_MANAGES_ZK=false
export JAVA_HOME=/usr/java/jdk1.8.0_171
export HBASE_CLASSPATH=/usr/hadoop/hadoop-2.7.3/etc/hadoop
 
3. 配置 conf/hbase-site.xml 文件
vim base-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>hdfs://master:6000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/zookeeper/zookeeper-3.4.10</value>
</property>
 
解释:
hbase.cluster.distributed Hbase 的运行模式。 false 是单机模式, true 是分布式模式。若
24 2019 年第二届全国大学生大数据技能竞赛
25
false,Hbase Zookeeper 会运行在同一个 JVM 里面。在 hbase-site.xml 配置 zookeeper ,当
Hbase 管理 zookeeper 的时候,你可以通过修改 zoo.cfg 来配置 zookeeper ,对于 zookeepr 的配
置,你至少要在 hbase-site.xml 中列出 zookeepr ensemble servers ,具体的字段是
hbase.zookeeper.quorum. 在这里列出 Zookeeper 集群的地址列表,用逗号分割。
hbase.zookeeper.property.clientPort ZooKeeper zoo.conf 中的配置 , 客户端连接的端口。
hbase.zookeeper.property.dataDir ZooKeeper zoo.conf 中的配置。对于独立的 Zookeeper
要指明 Zookeeper host 和端口。需要在 hbase-site.xml 中设置。
 
 
4. 配置 conf/regionservers ,添加子节点
vim conf/regionservers
添加: slave1  slave2 
 
在这里列出了希望运行的全部 HRegionServer ,一行写一个 host ( Hadoop 里面的 slaver
一样 ) 。列在这里的 server 会随着集群的启动而启动,集群的停止而停止。
5.hadoop 配置文件拷入 hbase 的目录下 ( 当前目录为 /usr/hbase/hbase-1.2.4/conf)
cp /usr/hadoop/hadoop-2.7.3/etc/hadoop/hdfs-site.xml     usr/hbase/
cp /usr/hadoop/hadoop-2.7.3/etc/hadoop/core-site.xml      usr/hbase/
    
6. 分发 hbase 到子节点
scp -r /usr/hbase root@slave1:/usr/
scp -r /usr/hbase root@slave2:/usr/
 
7. 配置环境变量(三台机器)
vim /etc/profile
配置环境变量 Hbase
# set hbase environment
export HBASE_HOME=/usr/hbase/hbase-1.2.4
export PATH=$PATH:$HBASE_HOME/bin
生效环境变量: source /etc/profile
9. 运行和测试, master 上执行 ( 保证 hadoop zookeeper 已开启 )
jps
 
 
 
6 、安装 hive
实验中我们选用 hive 的远程模式, slave2 安装 mysql server 用于存放元数据, slave1 作为
hive server 作为 thrift 服务器, master 作为 client 客户端进行操作。
 
 
6.1slave2 上安装 MySQL server
1. 配置过本地源了,安装 MySQL Server
安装 MySQL yum -y install mysql-community-server
2. 启动服务
重载所有修改过的配置文件: systemctl daemon-reload
开启服务: systemctl start mysqld
开机自启: systemctl enable mysqld
 
 
3. 登陆 MySQL
安装完毕后, MySQL 会在 /var/log/mysqld.log 这个文件中会自动生成一个随机的密码,
获取得这个随机密码,以用于登录 MySQL 数据库:
获取初密码: grep "temporary password" /var/log/mysqld.log
登陆 MySQL mysql -uroot -p(注意中英文
 
 
4.MySQL 密码安全策略设置
设置密码强度为低级: set global validate_password_policy=0;
设置密码长度: set global validate_password_length=4;
修改本地密码: alter user 'root'@'localhost' identified by '123456' ;
退出: \q
 
密码强度分级如下:
0 low 级别,只检查长度;
1 medium 级别(默认),符合长度为 8 ,且必须含有数字,大小写,特殊字符 ;
2 strong 级别,密码难度更大一些,需要包括字典文件。
密码长度最低长为 4 ,当设置长度为 1 2 3 时,其长度依然为 4
 
5. 设置远程登录
以新密码登陆 MySQL mysql -uroot -p123456
创建用户: create user 'root'@'%' identified by '123456' ;
允许远程连接: grant all privileges on *.* to 'root'@'%' with grant option
刷新权限: flush privileges
 
6. 创建数据库 test
 
create database if not exists test  ( hive>create database hive_db ;)
 
6.2 创建工作路径,解压安装包
创建工作路径/usr/hive ,下载相应软件,解压至工作路径。
mkdir /usr/hive   
下载:   wget http://172.16.47.240/bigdata /bigdata_tar/apache-hive-2.1.1-bin
解压:  tar -zxvf 
环境中 master 作为客户端, slave1 作为服务器端,因此都需要使用到 hive 。因为 hive
关安装包存放在 master 中,因此我们先在 master 中对 hive 进行解压,然后将其复制到 slave1
中。
 
6.3 slave1 中建立文件
同样 slave1 上建立文件夹 /usr/hive ,然后 master 中将安装包远程复制到 slave1
mkdir -p /usr/hive
master 中将 hive 文件复制到 slave1
scp -r /usr/hive/apache-hive-2.1.1-bin root@slave1:/usr/hive/
 
 
修改 /etc/profile 文件设置 hive 环境变量。( master slave1 都执行)
vim /etc/profile
#set hive
export HIVE_HOME=/usr/hive/apache-hive-2.1.1-bin
export PATH=$PATH:$HIVE_HOME/bin
 
 
生效环境变量: source /etc/profile
 
6.4 解决版本冲突和 jar 包依赖问题
由于客户端需要和 hadoop 通信,所以需要更改 Hadoop jline 的版本。即保留一个高版
本的 jline jar 包,从 hive lib 包中拷贝到 Hadoop lib 位置为
/usr/hadoop/hadoop-2.7.3/share/hadoop/yarn/lib master 中执行)
 
cp /usr/hive/apache-hive-2.1.1-bin/lib/jline-2.12.jar  /usr/hadoop/hadoop-2.7.3/share/hadoop/yarn/lib/
 
因为服务端需要和 Mysql 通信,所以服务端需要将 Mysql 的依赖包放在 Hive lib 目录
下。 slave1 中进行)
cd /usr/hive/apache-hive-2.1.1-bin/lib
⚫注意地址:
wget http://10.10.30.2:8000 http://172.16.47.240 /bigdata/bigdata_tar/mysql-connector-java-5.1.47-bin.jar
 
6.5 Slave1 作为服务器端配置 hive
回到 slave1 ,修改 hive-env.sh 文件中 HADOOP_HOME 环境变量。进入 hive 配置目录,
因为 hive 中已经给出配置文件的范本 hive-env.sh.template ,直接将其复制一个进行修改即可:
cd $HIVE_HOME/conf
ls
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
 
 
hive-env.sh 文件中修改 HADOOP_HOME 环境变量。
HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
 
3. 修改 hive-site.xml 文件
 
vim hive-site.xml
 
<configuration>
<!-- Hive 产生的元数据存放位置 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive_remote/warehouse</value>
</property>
<!-- 数据库连接 JDBC URL 地址 -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://slave2:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<!-- 数据库连接 driver ,即 MySQL 驱动 -->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- MySQL 数据库用户名 -->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- MySQL 数据库密码 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<property>
<name>datanucleus.schema.autoCreateAll</name>
<value>true</value>
</property>
</configuration>
 
 
6.6Master 作为客户端配置 hive
slave1 中配置方式类似,直接进入
1. 修改 hive-site.xml
vim hive-site.xml
 
<configuration>
重复的:
<!-- Hive 产生的元数据存放位置 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive_remote/warehouse</value>
</property>
添加的:
<!--- 使用本地服务连接 Hive, 默认为 true-->
<property>
<name>hive.metastore.local</name>
<value>false</value>
</property>
<!-- 连接服务器 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://slave1:9083</value>
</property>
</configuration>

 

2. 修改 hive-env.sh HADOOP_HOME 环境变量:在conf下
vim  hive-env.sh
HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
 
6.7 成功启动 Hive
1. 启动 hive server 服务( slave1 上)
bin/hive --service metastore (注意空格)
 
2. 启动 hive client(master )
bin/hive
测试 hive 是否启动成功
hive>show databases;
 
 
创建数据库 hive_db
hive>create database hive_db;
 
 
 
 
 
7 Spark 安装
 
7.1 安装 scala 环境
任务要求如下:(三台机器)
1. 从本地源下载相应安装包,创建对应工作目录 /usr/scala ,并将工具解压至工作目录。
 
创建目录:  cd /usr   mkdir scala
下载:   wget  http://172.16.47.240/      (自己找一下在哪)类似    scala-2.12.2.tgz
解压:  tar  -zxvf  s
 
2. 配置 scala 的环境变量并生效:
vim /etc/profile
export SCALA_HOME=/usr/scala   (注意)
export PATH=$PATH:$SCALA_HOME/bin
 
生效:  source /etc/profile
 
3. 查看 scala 是否安装成功:scala       
类似
 
 
7.2 安装 Spark
任务要求如下:
1. 从本地源下载相应安装包,创建对应工作目录 /usr/spark ,将工具解压至工作目录;
创建,进入  :  cd /usr   mkdir spark
下载: wget  http://172.16.47.240/    需要寻找下
 
2. 配置 conf/spark-env.sh 文件,设置要求如下;
cd spark/conf 
设置 master SPARK 主节点 IP SPARK_MASTER_IP
  vim spark-env.sh
 
添加: export SPARK_MASTER_IP= master
 
设置 SCALA_HOME JAVA_HOME HADOOP_HOME
export SCALA_HOME=/usr/scala
export JAVA_HOME=/usr/java/jdk1.8.0_171
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
 
 
设置 Hadoop 配置目录路径( HADOOP_CONF_DIR
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-"/etc/hadoop"}
 
设置 spark 工作内存为 8G SPARK_WORKER_MEMORY
 
export SPARK_WORKER_MEMORY=8g
 
3. 配置 spark 从节点,修改 slaves 文件;
slave1
slave2
提示:注意 slaves 节点中只包含节点信息,其他注释不需要。
4. 向所有子节点发送 spark 配置好的安装包;
提示:即要求三台节点 spark 配置一致即可。
 
scp -r /usr/spark root@slave1:/usr/
scp -r /usr/spark root@slave2:/usr/
5.三台机器都需要 设置 SPARK_HOME 环境变量,将 $SPARK_HOME/bin 加入到 PATH
vim /etc/profile
#set spark enviroment
export $SPARK_HOME=/usr/spark
export PATH=$PATH:$SPARK_HOME/bin
生效:  source /usr/spark 
 
6. 开启 spark 服务;
提示:主节点执行
 
./start-all.sh
类似:
 
./spark-shell
类似:
 
 
 
 
 
 
 
爬虫:
 
bs4  + requests
 
 
 
lxml
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 

 

 

 

 

 

 

 

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

大数据技术 的相关文章

  • docker容器技术基础入门

    容器介绍 xff08 container xff09 容器是一种基础工具 xff1b 泛指任何可以用于容纳其他物品的工具 xff0c 可以部分或完全封闭 xff0c 被用于容纳 储存 运输物品 xff1b 物体可以被放置在容器中 xff0c
  • docker基础用法

    什么是docker Docker 是一个开源的应用容器引擎 xff0c 让开发者可以打包他们的应用以及依赖包到一个可移植的镜像中 xff0c 然后发布到任何流行的 Linux或Windows 机器上 xff0c 也可以实现虚拟化 容器是完全
  • docker容器虚拟化

    虚拟化网络 Network Namespace 是 Linux 内核提供的功能 xff0c 是实现网络虚拟化的重要功能 xff0c 它能创建多个隔离的网络空间 xff0c 它们有独自网络栈信息 不管是虚拟机还是容器 xff0c 运行的时候仿
  • docker容器网络

    docker容器网络 Docker在安装后自动提供3种网络 xff0c 可以使用docker network ls命令查看 root 64 localhost docker network ls NETWORK ID NAME DRIVER
  • docker容器网络配置

    Linux内核实现名称空间的创建 ip netns命令 可以借助ip netns命令来完成对 Network Namespace 的各种操作 ip netns命令来自于iproute安装包 xff0c 一般系统会默认安装 xff0c 如果没
  • docker存储卷

    cow机制 cow意思是写时复制 xff0c 在对页表进程读操作时 xff0c 不会产生异常 xff0c 对页表进程写操作时 xff0c 会触发page fault异常 xff0c 通常这种机制的产生是通过对页表设置read only 在l
  • Docker Private Registry(docker私有仓库)

    Docker Registry 网上有很多的Registry服务器都支持第三方用户注册 xff0c 而后基于用户名去做自己的仓库 xff0c 但是使用互联网上的Registry有一个缺陷 xff0c 那就是我们去推送和下载镜像时都不会很快
  • harbor

    harbor简介 无论是使用Docker distribution去自建仓库 xff0c 还是通过官方镜像跑容器的方式去自建仓库 xff0c 通过前面的演示我们可以发现其是非常的简陋的 xff0c 还不如直接使用官方的Docker Hub去
  • Ansible介绍与安装

    1 介绍Ansible 什么是ansible xff1f ansible是新出现的自动化运维工具 xff0c 基于Python开发 xff0c 集合了众多运维工具 xff08 puppet cfengine chef func fabric
  • 定时打印进程信息shell脚本

    定时打印进程信息脚本 span class token shebang important bin sh span span class token comment 输入参数 span span class token assign lef
  • 部署ansible

    部署ansible 1 构建ansible清单1 1定义清单1 2使用静态清单指定受管主机1 3验证清单1 4覆盖清单的位置1 5构建ansible清单1 6自定义清单文件 2 管理Ansible配置文件2 1配置Ansible2 2配置文
  • ansible常用模块

    ansible常用模块 1 ansible常用模块使用详解2 ansible常用模块之ping3 ansible常用模块之command4 ansible常用模块之raw5 ansible常用模块之shell6 ansible常用模块之sc
  • ansible之playbook

    playbook 1 实施playbook1 1Ansible Playbook与临时命令1 2格式化Ansible Playbook1 3运行playbook1 4提高输出的详细程度1 5语法验证1 6执行空运行 2 实施多个play2
  • LAMP-手动架构部署

    1 lamp简介 有了前面学习的知识的铺垫 xff0c 今天可以来学习下第一个常用的web架构了 所谓lamp xff0c 其实就是由Linux 43 Apache 43 Mysql MariaDB 43 Php Perl Python的一
  • 华为云欧拉操作系统(OpenEuler)部署K8S集群

    华为云欧拉操作系统 xff08 OpenEuler xff09 部署K8S集群 需要提前准备好OpenEular操作系统虚拟机3台 xff0c 本文使用模板机创建 一 主机硬件要求 1 1 主机操作系统说明 序号操作系统及版本备注1open
  • 虚拟机centos关闭繁忙导致无法操作(已解决)

    虚拟机关闭提示虚拟机繁忙导致关闭失败的问题 最近复制了一台虚拟机 xff0c 但是在关闭的时候总是遇到关不上的问题 xff0c 虚拟机提示繁忙 xff0c 开关机和重启按钮一直是灰色图标 xff0c 不能点击 解决办法倒是找到了 xff0c
  • ubuntu桌面图标全部消失,快捷键也打不开终端解决办法

    前几天远程todesk连接实验室服务器过程中出现了ubuntu桌面图标全部消失的现象 按照C到的很多方法操作过都不行 奇怪的是快捷键终端也打不开 界面是下面这个样子的 xff1a 整个人束手无策 然后 xff01 解决方法就是 重启实验室的
  • Ubuntu系统进去之后黑屏是什么问题,及解决办法【最全】

    出现黑屏可能有多种原因 xff0c 以下是一些常见的解决方法 xff1a 1 检查电源线和视频连接线是否牢固 有时候连接线松动或者断开都可能导致黑屏 2 检查显卡驱动是否正确安装 如果显卡驱动没有正确安装 xff0c 可能会导致黑屏 你可以
  • 【在Ubuntu中安装Pycharm(Ubuntu22.04,Pycharm2022.3.3)】详细如何解压文件

    本文讲述了在Ubuntu中安装pycharm的具体步骤 准备环境 xff1a Ubuntu22 04 xff0c Pycharm2022 3 3 具体步骤 xff1a 1 首先下载pycharm xff1a Pycharm官方下载地址 我在
  • 算法—求x的平方根,只保留整数部分(Java)

    需求 给你一个非负整数 x xff0c 计算并返回 x 的 算术平方根 由于返回类型是整数 xff0c 结果只保留 整数部分 xff0c 小数部分将被 舍去 注意 xff1a 不允许使用任何内置指数函数和算符 xff0c 例如 pow x

随机推荐

  • Finding memory bugs with AddressSanitizer

    AddressSanitizer ASan is an instrumentation tool created by Google security researchers to identify memory access proble
  • Android编译出现Warning: Mapping new ns to old ns的解决方案

    出现场景 更新了Android Studio版本后 xff0c 运行项目就出现以下警告 Warning Mapping new ns http schemas android com repository android common 02
  • Maven详细配置(全)

    目录 前言 maven下载配置 配置文件的修改 前言 maven是一个jar包管理工具 可以管理多个jar包 Maven是一个项目管理工具 它包含了一个项目对象模型 Project Object Model 一组标准集合 一个项目生命周期
  • Tomcat:HTTP状态 404 - 未找到解决方法

    出现如下问题 HTTP状态 404 未找到 类型 状态报告 消息 请求的资源 ajax war exploded 不可用 描述 源服务器未能找到目标资源的表示或者是不愿公开一个已经存在的资源表示 Apache Tomcat 8 5 69 H
  • jdk动态代理(AOP)从入门到精通(全)

    目录 前言1 了解代理模式2 静态代理案例3 动态代理3 1 入门案例3 2 原理实现3 3 深层案例3 4 步骤流程 4 模板总结 前言 整篇文章的代码源码如下 代码源码 理解什么是动态代理以及动态代理能干什么 使用jdk的反射机制 xf
  • SpringBoot从入门到精通(全)

    目录 前言1 入门案例1 1 新建项目1 2 代码模板 2 配置详解2 1 核心配置文件properties2 2 核心配置文件yml yaml2 3 多环境核心配置文件properties2 4 多环境核心配置文件yml2 5 自定义配置
  • jdbc之问号占位符的详细分析

    目录 前言实战 前言 先写sql语句框架 一个问号代表一个占位符 xff0c 之后占位符接收一个值占位符不可使用双引号或者单引号获取占位符 xff0c 给占位符传值 xff0c 通过setString等方法 之所以要用问号占位符 xff0c
  • docker出现Error response from daemon: driver failed programming external connectivity on endpoint解决方法

    目录 1 问题所示 2 分析原理 3 问题解决 1 问题所示 出现了如下问题 即简单测试run命令 运行一个简易命令不加端口的tomcat docker run d P name tomcat01 tomcat docker span cl
  • java框架 零基础从入门到精通的学习路线 附开源项目面经等(超全)

    目录 前言1 学习路线2 学习方法 前言 这篇文章主要总结我之前所学过的框架以及学习路线 从实打实的零基础到框架再到项目 之后实习工作 也在这篇博客中记录我的学习笔记 以及在笔记中遇到的配置安装 代码bug等错误 都从零开始摸索并且记录了下
  • Bootstrap从入门到精通(全)

    目录 前言1 下载安装2 布局容器和栅格网格系统2 1 布局容器2 2 栅格网格系统 3 常用样式4 表单4 1 控件4 2 布局 5 插件5 1 导航框5 2 下拉菜单 前言 在了解这篇文章的时候 需要提前知道这些知识点 可看我之前的文章
  • RestTemplate的超全讲解(全)

    目录 前言1 简介2 http状态码3 get请求4 post请求5 Exchange 前言 主要介绍RestTemplate的原理以及使用等 1 简介 常见的http客户端请求工具 xff1a jdk HttpURLConnectionA
  • 出现蓝屏代码为DPC_WATCHDOG_VIOLATION的解决方法

    最近过年 电脑一直时不时出现这个问题 已经严重影响我的工作 你的设备遇到问题 需要重启 我们只收集某些错误信息 然后你可以重新启动 有关此问题的详细信息和可能的解决方法 请访问 https www windows com stopcode
  • Diagnosing Memory Heap Corruption in glibc with MALLOC_CHECK_

    原文链接 https support microfocus com kb doc php id 61 3113982 Environment Novell eDirectory 8 7 3 for Linux Novell eDirecto
  • Java集合的常见面试题(全)

    这里写目录标题 前言常用的集合类有哪些集合底层数据结构ArrayList 和 LinkedList 的区别HashSet 如何检查重复HashSet与HashMap的区别HashMap 和 Hashtable 的区别HashMap 的底层实
  • batchsize大小对网络模型的理解

    目录 前言1 batchsize定义2 batchsize大小3 batchsize平衡 前言 每一次的epoch都是将其数据集经过神经网络 xff0c 进行正向传播以及反向传播 由于epoch训练的数据集可能过大 xff0c 需要将其分块
  • 【密码学】ElGamal加密算法原理 以及 例题讲解

    目录 前言1 原理2 例题2 1 例题一2 2 例题二 前言 具体的性质 xff1a 非对称加密算法应用于一些技术标准中 xff0c 如数字签名标准 xff08 DSS xff09 S MIME 电子邮件标准算法定义在任何循环群 G 上 x
  • YOLOv5网络模型的结构原理讲解(全)

    目录 前言1 基本概念2 输入端2 1 Mosaic 图像增强2 2 自适应锚框计算2 3 自适应图片缩放 3 Backbone层3 1 Focus结构3 2 CSP结构 3 Neck网络3 1 SPP结构3 2 PAN结构 4 输出端4
  • 初级版元胞自动机(2021-11-17)

    初级版元胞自动机 2021 11 17 1 原因 xff1a 最近接触了群体智能 xff0c 想起了元胞自动机之前玩过一个游戏 xff0c 类似生命游戏 xff0c 但找不到了 2 实现 xff1a span class token key
  • Spark的Java和Scala API的使用

    Spark的Java和Scala API的使用 实验环境 Linux Ubuntu 16 04 前提条件 xff1a Java 运行环境部署完成Spark Local模式部署完成 上述前提条件 xff0c 我们已经为你准备就绪了 实验内容
  • 大数据技术

    备用 xff1a 2 配置本地源 通过比赛平台提供源文件下载路径 xff0c 将本地源文件下载到 etc yum repos d 目录下 xff08 三台机器都执行 xff09 发信号给 yum 进程 xff1a pkill 9 yum 进