本文目录导读:
环境准备
在安装Hadoop之前,需要确保系统满足以下要求:
1、操作系统:推荐使用Linux操作系统,如CentOS 7.0。
2、硬件要求:根据实际需求配置,一般4核CPU、16GB内存、100GB硬盘空间即可。
3、Java环境:Hadoop依赖于Java运行,因此需要安装Java环境,推荐使用Java 8。
图片来源于网络,如有侵权联系删除
4、网络环境:确保网络连接正常,方便后续集群搭建。
安装步骤
1、安装Java环境
(1)下载Java 8安装包:前往Oracle官网下载Java 8安装包。
(2)安装Java:将下载的安装包上传至服务器,并解压。
(3)配置Java环境变量:编辑/etc/profile
文件,添加以下内容:
export JAVA_HOME=/usr/local/java/jdk1.8.0_231 export PATH=$PATH:$JAVA_HOME/bin
(4)使配置生效:运行source /etc/profile
命令。
2、安装Hadoop
(1)下载Hadoop安装包:前往Apache Hadoop官网下载适合自己操作系统的Hadoop版本。
(2)上传并解压Hadoop安装包:将下载的安装包上传至服务器,并解压至/usr/local/hadoop
目录。
图片来源于网络,如有侵权联系删除
(3)配置Hadoop环境变量:编辑/etc/profile
文件,添加以下内容:
export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin
(4)使配置生效:运行source /etc/profile
命令。
3、配置Hadoop
(1)修改/usr/local/hadoop/etc/hadoop/core-site.xml
文件,添加以下内容:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> </configuration>
(2)修改/usr/local/hadoop/etc/hadoop/hdfs-site.xml
文件,添加以下内容:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/hdfs/datanode</value> </property> </configuration>
(3)修改/usr/local/hadoop/etc/hadoop/mapred-site.xml
文件,添加以下内容:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
4、格式化NameNode
在终端执行以下命令,格式化NameNode:
hdfs namenode -format
5、启动Hadoop集群
图片来源于网络,如有侵权联系删除
(1)启动HDFS:执行以下命令启动HDFS:
start-dfs.sh
(2)启动YARN:执行以下命令启动YARN:
start-yarn.sh
6、检查集群状态
在终端执行以下命令,查看集群状态:
jps
应能看到NameNode、SecondaryNameNode、ResourceManager和NodeManager进程,表示集群启动成功。
通过以上步骤,成功搭建了Hadoop伪分布式集群,该集群可以用于处理大量数据,为大数据应用提供基础平台,在实际应用中,可根据需求对集群进行扩展和优化。
评论列表