本文目录导读:
环境准备
1、操作系统:选择Linux操作系统,推荐使用CentOS 7。
图片来源于网络,如有侵权联系删除
2、Java环境:Hadoop需要Java环境,版本建议为Java 8。
3、网络环境:确保集群中所有机器的IP地址、主机名和DNS解析正确。
安装配置
1、配置主机名和DNS解析
(1)在每台机器上编辑/etc/hosts
文件,添加以下内容:
192、168.1.101 hadoop01 192、168.1.102 hadoop02 192、168.1.103 hadoop03
(2)在每台机器上编辑/etc/hostname
文件,设置主机名:
hadoop01 hadoop02 hadoop03
(3)重启网络服务,使配置生效。
2、安装Java环境
(1)在每台机器上下载Java 8安装包,并解压到指定目录,例如/usr/local/java
。
(2)编辑/etc/profile
文件,添加以下内容:
export JAVA_HOME=/usr/local/java/jdk1.8.0_231 export PATH=$PATH:$JAVA_HOME/bin
(3)使配置生效,并验证Java版本。
3、下载Hadoop安装包
(1)在每台机器上下载Hadoop 3.3.1安装包,并解压到指定目录,例如/usr/local/hadoop
。
图片来源于网络,如有侵权联系删除
4、配置Hadoop环境
(1)编辑/usr/local/hadoop/etc/hadoop/hadoop-env.sh
文件,设置Java环境变量:
export JAVA_HOME=/usr/local/java/jdk1.8.0_231
(2)编辑/usr/local/hadoop/etc/hadoop/core-site.xml
文件,添加以下内容:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop01:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/data/tmp</value> </property> </configuration>
(3)编辑/usr/local/hadoop/etc/hadoop/hdfs-site.xml
文件,添加以下内容:
<configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/data/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/data/data</value> </property> </configuration>
(4)编辑/usr/local/hadoop/etc/hadoop/yarn-site.xml
文件,添加以下内容:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
5、配置SSH免密登录
(1)在每台机器上生成SSH密钥对:
ssh-keygen -t rsa -P '' -C 'your_email@example.com'
(2)将公钥复制到集群中所有机器的~/.ssh/authorized_keys
文件中。
6、格式化NameNode
hdfs namenode -format
7、启动Hadoop服务
(1)启动HDFS:
start-dfs.sh
(2)启动YARN:
图片来源于网络,如有侵权联系删除
start-yarn.sh
(3)启动HistoryServer:
mr-jobhistory-daemon.sh start historyserver
测试集群
1、查看HDFS状态
hdfs dfsadmin -report
2、查看YARN状态
yarn dfs -report
3、运行MapReduce程序
(1)在客户端编写MapReduce程序。
(2)提交程序到YARN运行:
hadoop jar your-program.jar your-input-path your-output-path
4、查看程序运行结果
(1)查看HDFS上的输出文件:
hdfs dfs -cat your-output-path/output.txt
(2)查看HistoryServer上的程序运行历史:
http://hadoop01:19888/jobhistory
至此,Hadoop完全分布式集群搭建完成。
标签: #hadoop集群完全分布式搭建详细步骤
评论列表