安装 Python
$ sudo apt-get install python3
安装完毕后,使用如下命令查看 python3 的具体版本:
$ /usr/bin/python3 -V
Python 3.5.2
安装 scala:
$ sudo apt-get install scala scala-doc scala-library
查看安装的 scala 的版本信息:
$ scala -version
Scala code runner version 2.11.6 -- Copyright 2002-2013,LAMP/EPFL
下载 Spark
http://spark.apache.org/downloads.html
在 .bash_profile 文件中添加 Spark 境变量设置:
SPARK_HOME=/usr/local/etc/spark
export SPARK_HOME
PATH=/usr/local/etc/spark/bin:/usr/local/etc/spark/sbin:$PATH
export PATH
然后执行:
$ source .bash_profile
打开 scala 版本的 Spark shell:
$ spark-shell
打开 Python 版本的 Spark shell:
$ pyspark
pyspark 启动时,会去检索环境变量 PYSPARK_PYTHON ,如果这个变量有值,
就用其指定版本的 Python,否则就用系统默认的 python 命令:
设置 PYSPARK_PYTHON 环境变量:
$ vim .bash_profile
PYSPARK_PYTHON=python3
export PYSPARK_PYTHON
$ source .bash_profile
在运行 pyspark,
$ pyspark
Python 换成了在 PYSPARK_PYTHON 中指定的版本:
原文链接:https://www.f2er.com/ubuntu/350189.html