Ubuntu14.04安装Spark和Storm+实例解析

前端之家收集整理的这篇文章主要介绍了Ubuntu14.04安装Spark和Storm+实例解析前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

参考网站:http://www.jb51.cc/article/p-qgbrwjpi-bbe.html

spark安装参考网站(强烈推荐):http://blog.csdn.net/tian_li/article/details/49328517

Storm安装参考网站:http://www.jb51.cc/article/p-qaxvcfjg-gz.html

需要提前安装:

1、Haoop-2.7.3

2、hbase-0.98.24-hadoop2

3、Zookeeper(可以使用hbase自带的zookeeper)安装参考网址:http://www.jb51.cc/article/p-quatzdmk-bqh.html

4、scala-2.12.1 下载参考网址:http://blog.csdn.net/shengmingqijiquan/article/details/52388285

第一部分:安装Spark

1、下载Spark

$ wget -r -O ~/MyDownloads/spark-2.1.0-bin-hadoop2.7.tgz http://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.7.tgz

2、解压安装文件

$ tar -xf ~/MyDownloads/spark-2.1.0-bin-hadoop2.7.tgz

3、配置spark环境变量和配置文件

配置全局环境变量:

$ sudo vim /etc/profile
export SPARK_HOME=/home/hadoop/spark-2.1.0-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
$source /etc/profile

spark-2.1.0/conf下的:spark-env.sh(cp *.template **.sh);slaves(cp *.template **.sh)

配置:spark-env.sh

export JAVA_HOME=/usr/local/java/jdk1.8.0_121    #jdk安装目录
export SCALA_HOME=/usr/bin/scala                 #scala安装目录
export SPARK_MASTER_IP=10.0.83.201               #spark集群的master节点
# export SPARK_WORKER_MEMORY=1.5g   #不要乱设置 我调试了3小时找到了这个错误
# export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.7.3/etc/hadoop 这个配置也不能用否则 spark-shell 会报错
配置:slaves
CDH
CDH1
CDH2

并将两个文件scp到各个worker上

4、启动spark

$ ./start-all.sh #在这里执行 start-all.sh是开启hadoop 注意./的作用 不把Spark放入环境变量是因为start-all.sh与hadoop命令冲突

输入网址:http://10.0.83.201:8080/ 查看spark的job信息(spark默认UI端口号为8080,可以在/sbin/start-master.sh文件修改

查看是否安装成功

$ spark-shell --version

5、使用Spark shell。

$ ./bin/spark-shell       #scala shell
$ ./bin/pyspark            #python shell

遇到错误

17/04/14 22:28:54 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

原因是:64位系统使用了32位文件:根本原因是 HDFS 状态是standby 或者没有开启HDFS

参考地址:http://www.aboutyun.com/thread-13073-1-1.html

6、跑个测试用例:

$ ./bin/run-example SparkPi  #会显示很多日志信息
7、显示了太多的日志信息,所以我们设置下文件log4j.properties。使得部分日志信息写到该文件中。
$ cd ./conf
$ cp log4j.properties.template log4j.properties
$ vim log4j.properties 
# 修改文件中的
# log4j.rootCategory=INFO,console 为
# log4j.rootCategory=WARN,console

第二部分:安装Storm

安装支持:ZeroMQ;JZMQ

1、安装相关支持ZeroMQ

$ sudo apt-get install gcc g++ make automake uuid-dev libtool  #zeromq支持
$ wget -r -O zeromq-4.1.3.tar.gz "http://download.zeromq.org/zeromq-4.1.3.tar.gz"  #下载zeromq,网站上下载链接链接不上。

解压文件

$ tar zxvf zeromq-4.1.3.tar.gz
执行指令
$ cd zeromq-4.1.3
$ ./configure --without-libsodium
报如下错误错误解决办法参考网站: http://www.jb51.cc/article/p-khsndjzp-bkg.html
configure: error: in `/home/hadoop/zeromq-4.1.3':
configure: error: The pkg-config script could not be found or is too old.  Make sure it
is in your PATH or set the PKG_CONFIG environment variable to the full
path to pkg-config.
Alternatively,you may set the environment variables sodium_CFLAGS
and sodium_LIBS to avoid the need to call pkg-config.
See the pkg-config man page for more details.
To get pkg-config,see <http://pkg-config.freedesktop.org/>.
See `config.log' for more details

第一个错误是没有安装:pkg-config 执行$ sudo apt-get install pkg-config

以防万一都支持都安装了 $sudoapt-getinstallg++build-essentialgawkzlib1g-devuuid-dev libtool

第二个错误是没有安装libdonfigure,下载:libsodium-1.0.10,并在该目录下执行$ ./configure

环境变量中添加:export PKG_CONFIG_PATH=/home/hadoop/MyDownloads/zeromq-4.1.3

最后在回到zeromq-4.1.3/目录下 执行

$ ./configure --without-libsodium
$ make
$ sudo make install

2、安装JZMP

$ git clone git://github.com/nathanmarz/jzmq.git
在jzmp目录中执行
$ cd jzmq  
$ ./autogen.sh  
$ ./configure
--------$ touch src/classdist_noinst.stamp  #防止报错1
--------$ cd src/     #防止报错2  
--------$ javac -d . org/zeromq/*.java
--------$ cd ..  
$ make  
$ sudo make install

在执行$ ./autogen.sh 时报错在执行如下代码获取支持

$ sudo apt-get install autoconf automake libtool pkg-config

3、安装storm

下载网址:http://www.apache.org/dyn/closer.lua/storm/apache-storm-1.1.0/apache-storm-1.1.0.tar.gz

$ wget -r -O apache-storm-1.1.0.tar.gz "http://www-eu.apache.org/dist/storm/apache-storm-1.1.0/apache-storm-1.1.0.tar.gz"

4、解压storm安装文件,并设置环境变量

$ tar -zxvf apache-storm-1.1.0.tar.gz
配置环境变量:
####################### Storm Env ##############################
export STORM_HOME=/home/hadoop/apache-storm-1.1.0
export PATH=$STORM_HOME/bin:$PATH

5、修改conf/storm.yaml文件

Storm发行版本解压目录下有一个conf/storm.yaml文件,用于配置Storm。默认配置在这里可以查看。conf/storm.yaml中的配置选项将覆盖defaults.yaml中的默认配置。以下配置选项是必须在conf/storm.yaml中进行配置的:
############################### 1.去掉下面代码的#并修改 ######################################
storm.zookeeper.servers: 
    - "10.0.83.201"
    - "10.0.83.202"
    - "10.0.83.173"  
#如果zookeeper没有用默认端口,还要改的storm.zookeeper.port
storm.zookeeper.port: 2181 # 默认端口号2181 一定要注意这里的port一定要跟zookeeper设置中的clientPort=2181对应上
########## 2.  storm.local.dir用于存少量nimbus,supervisor进程的少量状态 #######################  
storm.local.dir: "/home/hadoop/apache-storm-1.1.0/LocalData/"  # 需要提前创建该目录并给以足够的访问权限
########  3.  nimbus.host,storm集群nimbus的机器地址,各个supervisor需要知道哪个是nimbus ########
# nimbus.host: "10.0.83.201,10.0.83.202" #多个MasterNode这样写
nimbus.host: "10.0.83.201"
########## 4. UI port ###############################
ui.port: 7080 #防止与spark的UI端口号冲突
############ 5.让工作节点知道哪个是nimbus以便下载topology的jar和conf ################
nimbus.seeds: ["10.0.83.201"]

1) storm.zookeeper.servers: Storm集群使用的Zookeeper集群地址,其格式如下:
storm.zookeeper.servers:
- "111.222.333.444"
- "555.666.777.888"
如果Zookeeper集群使用的不是默认端口,那么还需要storm.zookeeper.port选项。
2) storm.local.dir: Nimbus和Supervisor进程用于存储少量状态,如jars、confs等的本地磁盘目录,需要提前创建该目录并给以足够的访问权限。然后在storm.yaml中配置该目录,如:
storm.local.dir: "/home/admin/storm/workdir"
3) java.library.path: Storm使用的本地库(ZMQ和JZMQ)加载路径,默认为"/usr/local/lib:/opt/local/lib:/usr/lib",一般来说ZMQ和JZMQ默认安装在/usr/local/lib 下,因此不需要配置即可。
4) nimbus.host: Storm集群Nimbus机器地址,各个Supervisor工作节点需要知道哪个机器是Nimbus,以便下载Topologies的jars、confs等文件,如:
nimbus.host: "111.222.333.444"
5) supervisor.slots.ports: 对于每个Supervisor工作节点,需要配置该工作节点可以运行的worker数量。每个worker占用一个单独的端口用于接收消息,该配置选项即用于定义哪些端口是可被worker使用的。默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口,如:
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703

1) storm.zookeeper.servers: storm集群使用的zk集群地址,如果zk使用的不是默认2181的端口,那么我们还要增加 storm.zookeeper.port的配置项
2) storm.local.dir 用于存储少量数据,需要我们提前创建好目录
3) nimbus.seeds 让工作节点知道哪个是nimbus以便下载topology的jar和conf
4) supervisor.slots.ports 对于每个Supervisor工作节点,需要配置该工作节点可以运行的worker数量
每个worker占用一个单独的端口用于接收消息,该配置选项即用于定义哪些端口是可被worker使用的。
默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口
5)这里的cluster1对应96,cluster2对应45,cluster3对应34机器,刚开始的时候我这里都是直接写的ip,
但是storm ui起来之后发现如下情况,都是localhost而且nimbus里面有两个

6、将CDHMaster主机上的Storm整个文件copy到CDH1和CDH2主机上

$ scp -r apache-storm-1.1.0/ hadoop@CDH1:/home/hadoop/
$ scp -r apache-storm-1.1.0/ hadoop@CDH2:/home/hadoop/

7、启动storm

$ bin/storm nimbus </dev/null 2<&1 &      #在 MasterNode 上开启nimbus进程
$ bin/storm supervisor </dev/null 2<&1 &   #在 WorkerNode 上开启supervisor进程
$ bin/storm ui </dev/null 2<&1 &           #在 MasterNode 上开启UI 网页访问app 注意在执行UI之前需要开启nimbus服务

一定要注意:

1) 关闭这些进程的流程是:$ jps -ml 后查看相应的进程ID 杀死进程(kill -s 9 10230)

2) jps中的core进程是 storm UI进程。想要关闭UI,kill core进程即可

3) 关闭shell,这三个进程会被杀死

最后一步,启动Storm的所有后台进程。和Zookeeper一样,Storm也是快速失败(fail-fast)的系统,这样Storm才能在任意时刻被停止,并且当进程重启后被正确地恢复执行。这也是为什么Storm不在进程内保存状态的原因,即使Nimbus或Supervisors被重启,运行中的Topologies不会受到影响。
以下是启动Storm各个后台进程的方式:
(1) Nimbus: 在Storm主控节点上运行"bin/storm nimbus >/dev/null 2>&1 &"启动Nimbus后台程序,并放到后台执行;
(2) Supervisor: 在Storm各个工作节点上运行"bin/storm supervisor >/dev/null 2>&1 &"启动Supervisor后台程序,并放到后台执行;
(3) UI: 在Storm主控节点上运行"bin/storm ui >/dev/null 2>&1 &"启动UI后台程序,并放到后台执行,启动后可以通过http://{nimbus host}:8080观察集群的worker资源使用情况、Topologies的运行状态等信息。

注意事项:
Storm后台进程被启动后,将在Storm安装部署目录下的logs/子目录下生成各个进程的日志文件
经测试,Storm UI必须和Storm Nimbus部署在同一台机器上,否则UI无法正常工作,因为UI进程会检查本机是否存在Nimbus链接
为了方便使用,可以将bin/storm加入到系统环境变量中。
至此,Storm集群已经部署、配置完毕,可以向集群提交拓扑运行了。

安装参考网址:http://www.jb51.cc/article/p-aactlzmp-sn.html

8、运行storm自带example

进入目录:apache-storm-1.1.0/examples/storm-starter/target。然后执行如下指令

$ storm jar storm-starter-1.1.0.jar org.apache.storm.starter.WordCountTopology TopoName
其中 org.apache.storm.starter 为程序WordCountTopology.java 中package的内容 原文链接:https://www.f2er.com/ubuntu/353481.html

猜你在找的Ubuntu相关文章