Ubuntu14上安装Hadoop单机/伪分布式步骤详解

前端之家收集整理的这篇文章主要介绍了Ubuntu14上安装Hadoop单机/伪分布式步骤详解前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

本文主要参考官方安装教程,如对自己英语水平十分自信,请点击链接移步官网~

@H_404_3@

测试使用以下软件包

  • Ubuntu 14.04 64位
  • Hadoop 2.8

首先需要安装好Ubuntu系统,完成该步骤后,才能在此基础上安装 Hadoop。

@H_404_3@

创建hadoop用户

  1. sudo adduser hadoop

此处命令会创建用户hadoop及组并设置密码

更新apt

用 hadoop 用户登录后,我们先更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了。

  1. sudo apt-get update

通过命令行安装软件

@H_404_3@

配置SSH无密码登陆

  1. cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
  2. ssh-keygen -t rsa # 会有提示,都按回车就可以
  3. cat ./id_rsa.pub >> ./authorized_keys # 加入授权

此时再用ssh localhost命令,无需输入密码就可以直接登陆了,如下图所示。

@H_404_3@

安装Java环境

根据http://wiki.apache.org/hadoop/HadoopJavaVersions中所说,hadoop2.8支持OpenJDK 1.7。所以这里直接安装OpenJDK1.7:

  1. sudo apt-get install openjdk-7-jdk

安装好 OpenJDK 后,需要找到相应的安装路径,这个路径是用于配置 JAVA_HOME 环境变量的。执行如下命令:

  1. dpkg -L openjdk-7-jdk | grep '/bin/javac'

该命令会输出一个路径,除去路径末尾的 “/bin/javac”,剩下的就是正确的路径了。如输出路径为 /usr/lib/jvm/java-7-openjdk-amd64/bin/javac,则我们需要的路径为 /usr/lib/jvm/java-7-openjdk-amd64。

接着在 ~/.bashrc 的最后一行配置 JAVA_HOME 环境变量

  1. vim ~/.bashrc

执行如下命令使之生效:

  1. source ~/.bashrc

设置好后我们来检验一下是否设置正确:

  1. echo $JAVA_HOME # 检验变量值
  2. java -version
  3. $JAVA_HOME/bin/java -version # 与直接执行 java -version 一样
  4. 如果设置正确的话,$JAVA_HOME/bin/java -version输出 java 的版本信息,且和java -version输出结果一样,如下图所示:

至此,Hadoop所需的Java运行环境就安装好了。

@H_404_3@

安装 Hadoop

将 Hadoop 安装至 /usr/local/ 中:

  1. sudo tar -zxf hadoop-2.8.0.tar.gz -C /usr/local # 解压到/usr/local中
  2. cd /usr/local/
  3. sudo mv ./hadoop-2.6.0/ ./hadoop # 将文件夹名改为hadoop
  4. sudo chown -R hadoop ./hadoop # 修改文件权限

Hadoop 解压后即可使用。输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:

  1. cd /usr/local/hadoop
  2. ./bin/hadoop version

配置etc/hadoop/下的hadoop-env.sh文件修改里面的JAVA_HOME与刚才bashrc里面的一致。

@H_404_3@

Hadoop单机配置(非分布式)

Hadoop 默认模式为非分布式模式,无需进行其他配置即可运行。非分布式即单 Java 进程,方便进行调试。

现在我们可以执行例子来感受下 Hadoop 的运行。Hadoop 附带了丰富的例子(运行./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar可以看到所有例子),包括 wordcount、terasort、join、grep 等。

在此我们选择运行 grep 例子,我们将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中。

  1. cd /usr/local/hadoop
  2. mkdir ./input
  3. cp ./etc/hadoop/*.xml ./input # 将配置文件作为输入文件
  4. ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'
  5. cat ./output/* # 查看运行结果

执行成功后如下所示,输出了作业的相关信息,输出的结果是符合正则的单词 dfsadmin 出现了1次

@H_404_3@

Hadoop伪分布式配置

Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 Datanode,同时,读取的是 HDFS 中的文件

Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件core-site.xmlhdfs-site.xml。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。

修改配置文件core-site.xml

  • <configuration>
  • </configuration>

修改为下面配置:

  • <configuration>
  • <property>
  • <name>hadoop.tmp.dir</name>
  • <value>file:/usr/local/hadoop/tmp</value>
  • <description>Abase for other temporary directories.</description>
  • </property>
  • <property>
  • <name>fs.defaultFS</name>
  • <value>hdfs://localhost:9000</value>
  • </property>
  • </configuration>

修改配置文件hdfs-site.xml

  • <configuration>
  • <property>
  • <name>dfs.replication</name>
  • <value>1</value>
  • </property>
  • <property>
  • <name>dfs.namenode.name.dir</name>
  • <value>file:/usr/local/hadoop/tmp/dfs/name</value>
  • </property>
  • <property>
  • <name>dfs.datanode.data.dir</name>
  • <value>file:/usr/local/hadoop/tmp/dfs/data</value>
  • </property>
  • </configuration>

配置完成后,执行 NameNode 的格式化:

  1. ./bin/hdfs namenode -format

成功的话,会看到 “successfully formatted” 和 “Exitting with status 0” 的提示,若为 “Exitting with status 1” 则是出错。

开启 NameNode 和 Datanode 守护进程。

  1. ./sbin/start-dfs.sh

若出现如下SSH提示,输入yes即可。

启动时可能会出现如下 WARN 提示:WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable。该 WARN 提示可以忽略,并不会影响正常使用(该 WARN 可以通过编译 Hadoop 源码解决)。

如果启动 Hadoop 时遇到输出非常多“ssh: Could not resolve hostname xxx”的异常情况:

这个并不是 ssh 的问题,可通过设置 Hadoop 环境变量来解决。首先按键盘ctrl + c中断启动,然后在 ~/.bashrc 中,增加如下两行内容(设置过程与JAVA_HOME变量一样,其中HADOOP_HOME 为 Hadoop 的安装目录):

保存后,执行source ~/.bashrc使变量设置生效,然后再次执行./sbin/start-dfs.sh启动 Hadoop。

启动完成后,可以通过命令jps来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”Datanode” 和 “SecondaryNameNode”(如果 SecondaryNameNode 没有启动,请运行 sbin/stop-dfs.sh 关闭进程,然后再次尝试启动尝试)。如果没有 NameNode 或 Datanode ,那就是配置不成功,请仔细检查之前步骤,或通过查看启动日志排查原因。

成功启动后,可以访问 Web 界面http://ip:50070查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件

@H_404_3@

运行Hadoop伪分布式实例

上面的单机模式,grep 例子读取的是本地数据,伪分布式读取的则是 HDFS 上的数据。要使用 HDFS,首先需要在 HDFS 中创建用户目录:

  1. ./bin/hdfs dfs -mkdir -p /home/hadoop

接着将./etc/hadoop 中的 xml 文件作为输入文件复制到分布式文件系统中,即将 /usr/local/hadoop/etc/hadoop 复制到分布式文件系统中的 /home/hadoop/input 中。我们使用的是 hadoop 用户,并且已创建相应的用户目录 /home/hadoop ,因此在命令中就可以使用相对路径如 input,其对应的绝对路径就是 /home/hadoop/input:

  1. ./bin/hdfs dfs -mkdir input
  2. ./bin/hdfs dfs -put ./etc/hadoop/*.xml input

复制完成后,可以通过如下命令查看文件列表:

  1. ./bin/hdfs dfs -ls /home/hadoop/input

若要关闭 Hadoop,则运行

  1. ./sbin/stop-dfs.sh

注意

下次启动 hadoop 时,无需进行 NameNode 的初始化,只需要运行./sbin/start-dfs.sh

原文链接:https://www.f2er.com/ubuntu/352902.html

猜你在找的Ubuntu相关文章