安装java
- 下载jdk
- 解压
tar -zxvf jdk-8u91-linux-x64.tar.gz
设置JAVA_HOME:修改配置文件vi /etc/profile,最后一行添加以下代码
export JAVA_HOME=/usr/java/jdk1.8.0_91 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin
命令:source /etc/profile 使文件立即生效
- 命令:java -version 检测是否安装成功
安装hadoop
安装spark
export SPARK_HOME=/home/spark
export PATH=$PATH:$SPARK_HOME/bin
- 命令:source /etc/profile 使文件立即生效
spark-shell
命令,即可启动spark单机模式- 配置spark-env.sh,进入spark/conf
mv spark-env.sh.template spark-env.sh
vim spark-env.sh
#以下添加在末尾
export SPARK_MASTER_IP=192.168.232.130
export SPARK_LOCAL_IP=192.168.232.130
192.168.232.130
为本机的ip
7. spark/sbin/start-all.sh
命令,即可启动伪分布式模式