配置CentOS上的Hadoop分布式文件系统(HDFS)涉及多个步骤,包括安装Java环境、配置SSH免密登录、下载和解压Hadoop、配置Hadoop环境变量、修改配置文件以及启动HDFS服务。以下是一个详细的步骤指南:
1. 安装Java环境
首先,确保你的CentOS系统上安装了Java运行环境。你可以从Oracle官网下载并安装JDK。
wget https://download.oracle.com/otn/java/jdk/8u212-b09/d7fc27d8d8f94d369ac70d8d89f8a2f29d/jdk-8u212-linux-x64.tar.gz tar -zxvf jdk-8u212-linux-x64.tar.gz -C /usr/local/ export JAVA_HOME=/usr/local/jdk1.8.0_212 export PATH=$JAVA_HOME/bin:$PATH
2. 配置SSH免密登录
为了在节点之间进行无密码登录,需要配置SSH密钥。
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 600 ~/.ssh/authorized_keys
3. 下载和解压Hadoop
下载所需版本的Hadoop安装包,并解压到指定目录。
wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.16.2.tar.gz tar -zxvf hadoop-2.6.0-cdh5.16.2.tar.gz -C /usr/local/ export HADOOP_HOME=/usr/local/hadoop-2.6.0-cdh5.16.2 export PATH=$HADOOP_HOME/bin:$PATH
4. 配置Hadoop环境变量
编辑/etc/profile
文件,添加Hadoop环境变量。
vi /etc/profile export HADOOP_HOME=/usr/local/hadoop-2.6.0-cdh5.16.2 export PATH=$HADOOP_HOME/bin:$PATH source /etc/profile
5. 修改Hadoop配置文件
core-site.xml
fs.defaultFS hdfs://namenode:9000 hadoop.tmp.dir /tmp/hadoop
hdfs-site.xml
dfs.replication 3 dfs.namenode.name.dir /data/hdfs/namenode dfs.datanode.data.dir /data/hdfs/datanode
mapred-site.xml
mapreduce.framework.name yarn
6. 配置slaves文件
在/etc/hadoop
目录下创建或编辑slaves
文件,添加所有DataNode的主机名。
node2 node3
7. 格式化NameNode
在NameNode节点上执行以下命令格式化文件系统。
hdfs namenode -format
8. 启动HDFS
在NameNode节点上启动HDFS服务。
start-dfs.sh
9. 验证HDFS配置
可以通过Web界面验证HDFS配置是否成功。
http://namenode:50070
请注意,以上步骤是一个基本的指南,具体配置可能会根据你的实际环境和需求有所不同。确保在进行任何配置更改后,都进行了适当的测试以验证其正确性。