Ubuntu安装Spark

前端之家收集整理的这篇文章主要介绍了Ubuntu安装Spark前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

安装 Python

$ sudo apt-get install python3

安装完毕后,使用如下命令查看 python3 的具体版本:

$ /usr/bin/python3 -V
Python 3.5.2

安装 scala:

$ sudo apt-get install scala scala-doc scala-library

查看安装的 scala 的版本信息:

$ scala -version
Scala code runner version 2.11.6 -- Copyright 2002-2013,LAMP/EPFL


下载 Spark

http://spark.apache.org/downloads.html



在 .bash_profile 文件添加 Spark 境变量设置:

SPARK_HOME=/usr/local/etc/spark
export SPARK_HOME

PATH=/usr/local/etc/spark/bin:/usr/local/etc/spark/sbin:$PATH
export PATH

后执行

$ source .bash_profile


打开 scala 版本的 Spark shell:

$ spark-shell


打开 Python 版本的 Spark shell:

$ pyspark



pyspark 启动时,会去检索环境变量 PYSPARK_PYTHON ,如果这个变量有值,

就用其指定版本的 Python,否则就用系统默认的 python 命令:



设置 PYSPARK_PYTHON 环境变量:

$ vim .bash_profile

PYSPARK_PYTHON=python3
export PYSPARK_PYTHON

$ source .bash_profile


在运行 pyspark,

$ pyspark


Python 换成了在 PYSPARK_PYTHON 中指定的版本:

猜你在找的Ubuntu相关文章