在CentOS上安装HDFS(Hadoop分布式文件系统)需要遵循以下步骤:
1. 准备工作
-
确保系统更新:
sudo yum update -y
-
关闭防火墙(可选,但推荐):
sudo systemctl stop firewalld sudo systemctl disable firewalld
-
配置SELinux(可选,但推荐):
sudo setenforce 0 sudo sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
2. 安装Java
Hadoop需要Java运行环境:
sudo yum install -y java-1.8.0-openjdk-devel
3. 下载并解压Hadoop
-
下载Hadoop: 访问Hadoop官网下载最新版本的Hadoop。
-
解压Hadoop:
tar -xzvf hadoop-
.tar.gz -C /opt sudo mv /opt/hadoop- /opt/hadoop
4. 配置Hadoop
-
设置环境变量: 编辑
/etc/profile.d/hadoop.sh
文件:sudo nano /etc/profile.d/hadoop.sh
添加以下内容:
export HADOOP_HOME=/opt/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使环境变量生效:
source /etc/profile.d/hadoop.sh
-
配置Hadoop: 编辑
$HADOOP_HOME/etc/hadoop/hadoop-env.sh
文件:sudo nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh
设置Java路径:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
编辑
$HADOOP_HOME/etc/hadoop/core-site.xml
文件:sudo nano $HADOOP_HOME/etc/hadoop/core-site.xml
添加以下内容:
fs.defaultFS hdfs://localhost:9000 编辑
$HADOOP_HOME/etc/hadoop/hdfs-site.xml
文件:sudo nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml
添加以下内容:
dfs.replication 1 dfs.namenode.name.dir /opt/hadoop/data/namenode dfs.datanode.data.dir /opt/hadoop/data/datanode 编辑
$HADOOP_HOME/etc/hadoop/mapred-site.xml
文件:sudo nano $HADOOP_HOME/etc/hadoop/mapred-site.xml
添加以下内容:
mapreduce.framework.name yarn 编辑
$HADOOP_HOME/etc/hadoop/yarn-site.xml
文件:sudo nano $HADOOP_HOME/etc/hadoop/yarn-site.xml
添加以下内容:
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler
5. 格式化HDFS
hdfs namenode -format
6. 启动Hadoop集群
-
启动NameNode和DataNode:
start-dfs.sh
-
启动YARN ResourceManager和NodeManager:
start-yarn.sh
7. 验证安装
-
检查HDFS状态:
hdfs dfsadmin -report
-
访问Web界面:
- NameNode:
http://
:50070 - ResourceManager:
http://
:8088
- NameNode:
通过以上步骤,你应该能够在CentOS上成功安装并运行HDFS。如果有任何问题,请检查日志文件以获取更多信息。