现在有4台服务器hadoop111~114,其中一台hadoop111是配置好jdk和hadoop环境的,现在我想让这些软件同步到其他服务器上,这样就不用一台一台去解压缩配置环境变量等操作。
其中/etc/profile文件需要有root权限,则su root,用root用户执行脚本文件即可!
得到的效果是其他服务器和hadoop111一样有对应的文件,路径也和hadoop111一样
本质上用的是 rsync -rvl 命令
格式:rsync -rvl 需要同步的文件 目标服务器的用户@主机ip地址:对应主机的位置
和scp相似scp见另一篇文章:https://www.cdsy.xyz/computer/cloud_technology/big_data/230715/cd44686.html有详细讲解
在用户家目录下新建一个bin目录
使用mkdir bin 创建bin目录
在bin目录内vim xsync
复制下面的代码到xsync文件内
#!/bin/bash #1 获取输入参数个数,如果没有参数,直接退出 pcount=$# if((pcount==0)); then echo no args; exit; fi #2 获取文件名称 p1=$1 fname=`basename $p1` echo fname=$fname #3 获取上级目录到绝对路径 pdir=`cd -P $(dirname $p1); pwd` echo pdir=$pdir #4 获取当前用户名称 user=`whoami` #5 循环 for((host=112; host<115;host++)); do echo ------------------- hadoop$host -------------- rsync -rvl $pdir/$fname $user@hadoop$host:$pdir done
下面解读脚本文件:
#1 到 #4 看注释即可。其中basename命令是获取文件名,dirname获取文件路径
注意这里的#5
这里遍历主机进行同步,根据自己的服务器进行修改
我这里的主机因为修改了/etc/hosts文件所以名称都是hadoop开头+数字
如图我的hosts文件
原因由环境变量决定,也可以放在其他路径下,当然xsync文件名也可以修改,但是对应执行的命令和修改后的文件名一样!