在CentOS上安装和配置Hadoop的步骤如下:
-
安装JDK:
- 下载JDK安装包,例如JDK 1.8:JDK下载地址
- 解压并配置环境变量。编辑
/etc/profile
文件,添加以下内容:export JAVA_HOME=/usr/java/jdk1.8.0_211 export CLASSPATH=.:$JAVA_HOME/lib export PATH=$PATH:$JAVA_HOME/bin
- 使配置生效:
source /etc/profile
- 验证Java安装:
java -version
-
下载和解压Hadoop:
- 从Hadoop官网下载所需版本的Hadoop安装包,例如Hadoop 3.3.1。
- 解压安装包到指定目录,例如
/usr/local/hadoop
:tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/hadoop
-
配置Hadoop环境变量:
- 编辑
~/.bashrc
文件,添加以下内容:export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
- 使配置生效:
source ~/.bashrc
- 编辑
-
配置Hadoop配置文件:
- 进入Hadoop安装目录的
etc/hadoop
目录。 - 编辑
core-site.xml
文件,设置默认文件系统:fs.defaultFS hdfs://namenode:9000 - 编辑
hdfs-site.xml
文件,配置HDFS相关参数:dfs.replication 3 dfs.namenode.name.dir /usr/local/hadoop/hdfs/namenode dfs.datanode.data.dir /usr/local/hadoop/hdfs/datanode - 编辑
mapred-site.xml
文件,配置MapReduce框架:mapreduce.framework.name yarn - 编辑
yarn-site.xml
文件,配置YARN相关参数:yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler
- 进入Hadoop安装目录的
-
格式化HDFS:
- 在NameNode上运行以下命令格式化HDFS:
hdfs namenode -format
- 在NameNode上运行以下命令格式化HDFS:
-
启动Hadoop服务:
- 启动HDFS:
start-dfs.sh
- 启动YARN:
start-yarn.sh
- 启动HDFS:
-
验证安装:
- 通过访问Hadoop的Web界面来验证安装是否成功:
- NameNode: http://namenode:9000
- ResourceManager: http://resourcemanager:8088
- 通过访问Hadoop的Web界面来验证安装是否成功:
, , ,