Hadoop集群环境 Spark scala python ubuntu 安装和配置
1 安装说明
在安装spark之前,需要安装hadoop集群环境,如果没有可以查看:Hadoop分布式集群的搭建
1.1 用到的软件
软件 | 版本 | 下载地址 |
---|---|---|
linux | Ubuntu Server 18.04.2 LTS | https://www.ubuntu.com/download/server |
hadoop | hadoop-2.7.1 | http://archive.apache.org/dist/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz |
java | jdk-8u211-linux-x64 | https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html |
spark | spark-2.4.3-bin-hadoop2.7 | https://www.apache.org/dyn/closer.lua/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz |
scala | scala-2.12.5 | http://www.scala-lang.org/download/ |
Anaconda | Anaconda3-2019.03-Linux-x86_64.sh | https://www.anaconda.com/distribution/ |
1.2 节点安排
名称 | ip | hostname |
---|---|---|
主节点 | 192.168.233.200 | Master |
子节点1 | 192.168.233.201 | Slave01 |
子节点2 | 192.168.233.202 | Slave02 |
2 安装Spark
2.1 解压到安装目录
1 | $ tar zxvf spark-2.4.3-bin-hadoop2.7.tgz -C /usr/local/bigdata/ |
2.2 修改配置文件
配置文件位于/usr/local/bigdata/spark-2.4.3/conf
目录下。
(1) spark-env.sh
将spark-env.sh.template
重命名为spark-env.sh
。
添加如下内容:
1 | export SCALA_HOME=/usr/local/bigdata/scala |
(2)slaves
将slaves.template
重命名为slaves
修改为如下内容:
1 | Slave01 |
2.3 配置环境变量
在~/.bashrc
文件中添加如下内容,并执行$ source ~/.bashrc
命令使其生效
1 | export SPARK_HOME=/usr/local/bigdata/spark-2.4.3 |
3 运行Spark
先启动hadoop
1 | $ cd $HADOOP_HOME/sbin/ |
然后启动启动sapark
1 | $ cd $SPARK_HOME/sbin/ |
要注意的是:其实我们已经配置的环境变量,所以执行start-dfs.sh
和start-yarn.sh
可以不切换到当前目录下,但是start-all.sh
、stop-all.sh
和/start-history-server.sh
这几个命令hadoop
目录下和spark
目录下都同时存在,所以为了避免错误,最好切换到绝对路径下。
spark启动成功后,可以在浏览器中查看相关资源情况:http://192.168.233.200:8080/,这里192.168.233.200
是Master
节点的IP
4 配置Scala环境
spark既可以使用Scala作为开发语言,也可以使用python作为开发语言。
4.1 安装Scala
spark中已经默认带有scala,如果没有或者要安装其他版本可以下载安装包安装,过程如下:
先下载安装包,然后解压
1 | $ tar zxvf scala-2.12.5.tgz -C /usr/local/bigdata/ |
然后在~/.bashrc
文件中添加如下内容,并执行$ source ~/.bashrc
命令使其生效
1 | export SCALA_HOME=/usr/local/bigdata/scala-2.12.5 |
测试是否安装成功,可以执行如下命令:
1 | scala -version |
4.2 启动Spark shell界面
执行spark-shell --master spark://master:7077
命令,启动spark shell。
1 | hadoop@Master:~$ spark-shell --master spark://master:7077 |
5 配置python环境
5.1 安装python
系统已经默认安装了python,但是为了方便开发,推荐可以直接安装Anaconda,这里下载的是安装包是Anaconda3-2019.03-Linux-x86_64.sh
,安装过程也很简单,直接执行$ bash Anaconda3-2019.03-Linux-x86_64.sh
即可。
5.2 启动PySpark的客户端
执行命令:$ pyspark --master spark://master:7077
具体如下:
1 | hadoop@Master:~$ pyspark --master spark://master:7077 |