Hadoop分布式集群的搭建 Hadoop ubuntu 分布式集群 环境搭建 ssh 网络配置 java环境
1 安装说明
1.1 用到的软件
软件 | 版本 | 下载地址 |
---|---|---|
linux | Ubuntu Server 18.04.2 LTS | https://www.ubuntu.com/download/server |
hadoop | hadoop-2.7.1 | http://archive.apache.org/dist/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz |
java | jdk-8u211-linux-x64 | https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html |
1.2 节点安排
名称 | ip | hostname |
---|---|---|
主节点 | 192.168.233.200 | Master |
子节点1 | 192.168.233.201 | Slave01 |
子节点2 | 192.168.233.202 | Slave02 |
2 创建hadoop用户
所有的节点均创建一个名为hadoop
的用户,并添加管理员权限。
注意:这里这是单纯为了方便管理,创建的用户名,也可以使用其他用户名,或者使用系统之前的用户,主要有管理员权限即可
1 | $ sudo useradd -m hadoop -s /bin/bash #创建用户 |
3 配置网络环境
3.1 修改主机名
修改 /etc/hostname
文件,每个节点都要修改。
- 主节点修改为:Master
- 从节点分别修改为:Slave01,Slave02,…
注意:如果是ubuntu18.04桌面版直接修改/etc/hostname
文件即可,ubuntu18.04服务器版还需要修改/etc/cloud/cloud.cfg
文件,修改如下:
1 | # This will cause the set+update hostname module to not operate (if true) |
3.2 添加IP与主机名的映射关系
在/etc/hosts
文件里添加如下内容(每个节点都要修改,根据实际情况修改ip)
1 | 192.168.233.200 Master |
检查各个节点是否能相互ping通。
3.3 设置SSH无密码登录节点
让Master能够通过SSH无密码登录各个Slave节点
如果修改过主机名,需要重新生成的新的公钥。
在Master上执行如下命令:
1 | $ cd ~/.ssh # 如果没有该目录,先执行一次ssh localhost |
接着将Master中的id_rsa.pub文件复制到各个Slave节点中
1 | $ scp ~/.ssh/id_rsa.pub hadoop@Slave01:/home/hadoop/ |
在各个Slave节点中执行如下命令:
1 | $ mkdir ~/.ssh # 如果不存在该文件夹需先创建 |
在Master中验证是否可以无密码登录,各个Slave节点。
如:
1 | $ ssh Slave01 #如果成功登录,则配置完成 |
4 安装java环境
每个节点都要安装,步骤相同
为了方便操作每个节点,默认在/usr/local/
下新建一个名为bigdata
的文件夹,存放所有的大数据相关的软件。
1 | $ sudo mkdir /usr/local/bigdata |
4.1 解压
1 | $ sudo mkdir /usr/local/bigdata/java |
4.2 添加环境变量
在~/.bashrc
文件中添加如下内容,并执行$ source ~/.bashrc
命令使其生效
1 | #java |
5 解压hadoop
下载hadoop-2.7.1.tar.gz
文件,并解压到/usr/local/bigdata/
文件夹下
1 | $ sudo tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/bigdata |
6 修改hadoop配置文件
需要修改6个文件,文件位于/usr/local/bigdata/hadoop-2.7.1/etc/hadoop/
下
6.1 slave 文件
将文件中原来的 localhost
删除,添加内容:
1 | Slave01 |
6.2 core-site.xml 文件
内容修改为:
1 | <configuration> |
6.3 hdfs-site.xml文件
Hadoop的分布式文件系统HDFS一般采用冗余存储,一份文件通常保存3份副本,所以dfs.replication的值还是设置为3。
具体内容如下:
1 | <configuration> |
6.4 mapred-site.xml 文件
修改内容如下:
1 | <configuration> |
6.5 yarn-site.xml文件
内容如下:
1 | <configuration> |
6.6 hadoop-env.sh 文件
修改如下内容:
1 | export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211 |
7 设置hadoop环境变量
每个节点都要设置
在~/.bashrc
文件中添加如下内容,并$ source ~/.bashrc
使其生效
1 | export PATH=$PATH:/usr/local/bigdata/hadoop-2.7.1/bin:/usr/local/bigdata/hadoop-2.7.1/sbin |
8 slave节点配置
slave节点只需将master节点上/usr/local/
下的bigdata
文件夹和~/.bashrc
文件,放到slave节点即可
注意切换到对应机器执行$ source ~/.bashrc
使环境变量生效。
后续的软件均可使用此方式配置。
在master节点:
1 | $ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/tmp # 删除 Hadoop 临时文件,如果之前有启动过 |
在各个slave节点上
1 | $ sudo mkdir /usr/local/bigdata |
9 启动Hadoop集群
在Master上执行
首次运行需要,执行
1 | $ hdfs namenode -format |
格式化名称节点,然后就可以启动hadoop了。
启动hadoop:
1 | $ start-dfs.sh |
使用jps查看启动的各个节点,缺少任何进程,都表示出错。
1 | $ jps |
浏览器查看:http://192.168.233.200:50070/
查看相关信息:$ hdfs dfsadmin -report
关闭hadoop:
1 | $ stop-yarn.sh |
如果有问题,重复如下命令:
1 | $ stop-dfs.sh # 关闭 |