如何在Centos6.5下部署Hadoop2.2的完全分布式集群(三)

前端之家收集整理的这篇文章主要介绍了如何在Centos6.5下部署Hadoop2.2的完全分布式集群(三)前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
散仙在上篇文章中,已经讲述了部署Hadoop2.2伪分布式的步骤,那么今天,我们来看下,如何在Centos6.5下,部署完全分布式集群。
下面先来看下具体的系统环境
序号 名称 描述
1 系统环境Centos6.5 最好在linux上部署
2 Hadoop版本Hadoop2.2.0 Hadoop2.x中的第一个稳定版本
3 JAVA环境JDK1.7 64位(build 1.7.0_25-b15)


部署情况
序号 IP地址 节点名
1 192.168.46.28 hp1(master)
2 192.168.46.29 hp2(slave)
3 192.168.46.30 hp3(slave)


部署步骤
序号 操作
1 配置SSH无密码登陆
2 配置环境变量JAVA(必须),MAVEN,ANT
3 配置Hadoop环境变量
4 配置core-site.xml文件
5 配置hdfs-site.xml文件
6 配置mapred-site.xml文件
7 配置yarn-site.xml文件
8 配置slaves文件
9 分发到从机上
10 在每台机器上格式化namenode
11 启动集群sbin/start-all.sh
12 执行jps命令,查询master与slave的java进程
13 测试页面访问,集群状态信息,
14 可以测试一个MR作业,验证集群



1,首先我们的集群之间的ssh是信任的,方便hadoop进程之间的通信。

生成公钥:ssh-keygen -t rsa -P ''
拷贝信任:ssh-copy-id -i .ssh/id_rsa.pub root@hp2
2,配置各种环境变量包括java,maven,ant,hadoop等的变量,代码如下:

Java代码
  1. exportPATH=.:$PATH
  2. exportJAVA_HOME="/usr/local/jdk"
  3. exportCLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
  4. exportPATH=$PATH:$JAVA_HOME/bin
  5. exportHADOOP_HOME=/root/hadoop
  6. exportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  7. exportCLASSPATH=.:$CLASSPATH:$HADOOP_HOME/lib
  8. exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  9. exportANT_HOME=/usr/local/ant
  10. exportCLASSPATH=$CLASSPATH:$ANT_HOME/lib
  11. exportPATH=$PATH:$ANT_HOME/bin
  12. exportMAVEN_HOME="/usr/local/maven"
  13. exportCLASSPATH=$CLASSPATH:$MAVEN_HOME/lib
  14. exportPATH=$PATH:$MAVEN_HOME/bin

3,配置core-site.xml文件
Xml代码
  1. <?xmlversion="1.0"encoding="UTF-8"?>
  2. <?xml-stylesheettype="text/xsl"href="configuration.xsl"?>
  3. <!--
  4. LicensedundertheApacheLicense,Version2.0(the"License");
  5. youmaynotusethisfileexceptincompliancewiththeLicense.
  6. YoumayobtainacopyoftheLicenseat
  7. http://www.apache.org/licenses/LICENSE-2.0
  8. Unless@R_502_103@byapplicablelaworagreedtoinwriting,software
  9. distributedundertheLicenseisdistributedonan"ASIS"BASIS,
  10. WITHOUTWARRANTIESORCONDITIONSOFANYKIND,eitherexpressorimplied.
  11. SeetheLicenseforthespecificlanguagegoverningpermissionsand
  12. limitationsundertheLicense.SeeaccompanyingLICENSEfile.
  13. -->
  14. <!--Putsite-specificpropertyoverridesinthisfile.-->
  15. <configuration>
  16. <property>
  17. <name>fs.default.name</name>
  18. <value>hdfs://192.168.46.28:9000</value>
  19. </property>
  20. <property>
  21. <name>hadoop.tmp.dir</name>
  22. <value>/root/hadoop/tmp</value>
  23. </property>
  24. </configuration>


4,配置hdfs-site.xml文件
Xml代码
  1. <?xmlversion="1.0"encoding="UTF-8"?>
  2. <?xml-stylesheettype="text/xsl"href="configuration.xsl"?>
  3. <!--
  4. LicensedundertheApacheLicense,eitherexpressorimplied.
  5. SeetheLicenseforthespecificlanguagegoverningpermissionsand
  6. limitationsundertheLicense.SeeaccompanyingLICENSEfile.
  7. -->
  8. <!--Putsite-specificpropertyoverridesinthisfile.-->
  9. <configuration>
  10. <property>
  11. <name>dfs.replication</name>
  12. <value>1</value>
  13. </property>
  14. <property>
  15. <name>dfs.namenode.name.dir</name>
  16. <value>/root/hadoop/nddir</value>
  17. </property>
  18. <property>
  19. <name>dfs.datanode.data.dir</name>
  20. <value>/root/hadoop/dddir</value>
  21. </property>
  22. <property>
  23. <name>dfs.permissions</name>
  24. <value>false</value>
  25. </property>
  26. </configuration>

配置mapred-site.xml文件
Xml代码
  1. <?xmlversion="1.0"?>
  2. <?xml-stylesheettype="text/xsl"href="configuration.xsl"?>
  3. <!--
  4. LicensedundertheApacheLicense,eitherexpressorimplied.
  5. SeetheLicenseforthespecificlanguagegoverningpermissionsand
  6. limitationsundertheLicense.SeeaccompanyingLICENSEfile.
  7. -->
  8. <!--Putsite-specificpropertyoverridesinthisfile.-->
  9. <configuration>
  10. <property>
  11. <name>mapred.job.tracker</name>
  12. <value>hp1:8021</value>
  13. <final>true</final>
  14. <description>ThehostandportthattheMapReduceJobTrackerrunsat.</description>
  15. </property>
  16. <property>
  17. <name>mapreduce.cluster.temp.dir</name>
  18. <value></value>
  19. <description>Nodescription</description>
  20. <final>true</final>
  21. </property>
  22. <property>
  23. <name>mapreduce.cluster.local.dir</name>
  24. <value></value>
  25. <description>Nodescription</description>
  26. <final>true</final>
  27. </property>
  28. </configuration>


配置yarn-site.xml文件
Xml代码
  1. <?xmlversion="1.0"?>
  2. <!--
  3. LicensedundertheApacheLicense,eitherexpressorimplied.
  4. SeetheLicenseforthespecificlanguagegoverningpermissionsand
  5. limitationsundertheLicense.SeeaccompanyingLICENSEfile.
  6. -->
  7. <configuration>
  8. <property>
  9. <name>yarn.nodemanager.aux-services</name>
  10. <value>mapreduce_shuffle</value>
  11. </property>
  12. <property>
  13. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  14. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  15. </property>
  16. <property>
  17. <name>Yarn.nodemanager.aux-services</name>
  18. <value>mapreduce.shuffle</value>
  19. </property>
  20. <property>
  21. <name>yarn.resourcemanager.address</name>
  22. <value>hp1:8032</value>
  23. </property>
  24. <property>
  25. <name>yarn.resourcemanager.scheduler.address</name>
  26. <value>hp1:8030</value>
  27. </property>
  28. <property>
  29. <name>yarn.resourcemanager.resource-tracker.address</name>
  30. <value>hp1:8031</value>
  31. </property>
  32. <property>
  33. <name>yarn.resourcemanager.admin.address</name>
  34. <value>hp1:8033</value>
  35. </property>
  36. <property>
  37. <name>yarn.resourcemanager.webapp.address</name>
  38. <value>hp1:8088</value>
  39. </property>
  40. </configuration>

配置slaves文件
Java代码
  1. 192.168.46.28
  2. 192.168.46.29
  3. 192.168.46.30

配置好后,注意,在hdfs-site.xml文件里的目录,需要自己在hadoop根目录下创建,以及hadoop的HDFS的tmp目录。一切做好之后,我们就可以分发整套hadoop到从机上,然后格式化namenode,并启动集群,使用jps在主机,和从机上分别显示如下:
master的jps显示如下:
Java代码
  1. 4335SecondaryNameNode
  2. 4464ResourceManager
  3. 4553NodeManager
  4. 4102NameNode
  5. 4206Datanode
  6. 6042Jps

slave上的jps显示如下:
Java代码
  1. 1727Datanode
  2. 1810NodeManager
  3. 2316Jps

确实jps命令显示的java进程正确,我们就可以访问,web界面进行查看了,截图如下:







至此,我们已经成功的部署完成hadoop集群,安装时,注意散仙的步骤,按这样顺序来,一般不容易不错。
原文链接:https://www.f2er.com/centos/380391.html

猜你在找的CentOS相关文章