本文目录导读:
环境准备
1、操作系统:推荐使用Linux操作系统,如CentOS、Ubuntu等。
图片来源于网络,如有侵权联系删除
2、Java环境:Hadoop需要Java环境,版本建议为1.8。
3、网络环境:确保网络畅通,以便后续配置。
安装步骤
1、下载Hadoop安装包
访问Hadoop官网(https://hadoop.apache.org/),下载适合自己操作系统的Hadoop安装包。
2、解压安装包
将下载的Hadoop安装包解压到指定目录,如/opt/hadoop
。
3、配置环境变量
打开终端,编辑~/.bashrc
文件,添加以下内容:
export HADOOP_HOME=/opt/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
保存文件,并执行以下命令使配置生效:
source ~/.bashrc
4、配置Hadoop配置文件
图片来源于网络,如有侵权联系删除
4.1. 修改/opt/hadoop/etc/hadoop/hadoop-env.sh
文件,设置Java环境:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
4.2. 修改/opt/hadoop/etc/hadoop/core-site.xml
文件,配置Hadoop运行的主机名:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop/tmp</value> </property> </configuration>
4.3. 修改/opt/hadoop/etc/hadoop/hdfs-site.xml
文件,配置HDFS存储目录:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoop/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/hadoop/hdfs/datanode</value> </property> </configuration>
4.4. 修改/opt/hadoop/etc/hadoop/mapred-site.xml
文件,配置MapReduce运行模式:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
4.5. 修改/opt/hadoop/etc/hadoop/yarn-site.xml
文件,配置YARN运行模式:
<configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
5、格式化HDFS文件系统
在终端执行以下命令,格式化HDFS文件系统:
hdfs namenode -format
6、启动Hadoop服务
在终端执行以下命令,启动Hadoop服务:
sbin/start-dfs.sh sbin/start-yarn.sh
启动成功后,可以通过以下命令查看Hadoop服务状态:
图片来源于网络,如有侵权联系删除
jps
应该看到以下进程:
NameNode SecondaryNameNode ResourceManager NodeManager
测试Hadoop集群
1、在终端执行以下命令,进入Hadoop命令行:
hadoop fs -ls /
应该看到以下输出:
drwxr-xr-x - hadoop supergroup 2019-11-20 17:28 /
这表示Hadoop集群已成功搭建。
2、在终端执行以下命令,创建一个测试文件:
hadoop fs -put /etc/passwd /test
3. 再次执行以下命令,查看文件是否已成功上传:
hadoop fs -ls /test
应该看到以下输出:
-rw-r--r-- - hadoop supergroup 2019-11-20 17:28 /test/passwd
这表示Hadoop集群功能正常。
本文详细介绍了Hadoop伪分布式集群的搭建过程,包括环境准备、安装步骤、配置文件修改、格式化HDFS文件系统、启动Hadoop服务以及测试Hadoop集群,通过本文的学习,读者可以轻松搭建Hadoop伪分布式集群,为后续学习和实践打下坚实基础。
标签: #伪分布式hadoop集群搭建过程
评论列表