hadoop完全分布式之集群分发脚本

前端之家收集整理的这篇文章主要介绍了hadoop完全分布式之集群分发脚本前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

例如:循环复制文件到所有节点的相同目录下:

首先在centos01中的xiximayou用户下的/home目录下新建一个bin文件夹,在bin文件夹中新建xsync.sh文件,在里面输入:

  1. !/bin/bash
  2. #获取输入参数个数,如果没有参数,就直接输出
  3. pcount=$#
  4. if((pcount==0));then
  5. echo no args;
  6. exit;
  7. fi
  8. #获取文件名称
  9. p1=$1
  10. fname=`basename $p1`
  11. echo fname=$fname
  12. #获取上级目录的绝对路径
  13. pdir=`cd -P $(dirname $p1);pwd`
  14. echo pdir=$pdir
  15. #获取当前用户名
  16. user=`whoami`
  17. #循环
  18. for((host=02;host<03;host++));do
  19. echo --------------hadoop0$host-------------
  20. rsync -rvl $pdir/$fname $user@hadoop0$host:$pdir
  21. done

然后在退出bin目录,输入xsync.sh bin/

由于我目前只有另一个虚拟机centos02,所以只会分发给它。

之后我们进入到centos02虚拟机中查看:

文件成功传过来了。

借此脚本,就可以实现一次性给不同虚拟机发送文件了。 

猜你在找的Hadoop相关文章