在Linux上部署和配置Hadoop涉及多个步骤,以下是详细的指南:
环境准备
-
安装Java:
- 在Ubuntu上:
sudo apt update sudo apt install openjdk-8-jdk
- 在CentOS上:
sudo yum install java-1.8.0-openjdk-devel
- 检查Java安装是否成功:
java -version
- 在Ubuntu上:
-
安装SSH:
- 确保可以无密码连接到所有节点。
- 在Ubuntu上:
sudo apt install openssh-server
- 在CentOS上:
sudo yum install openssh-server
- 生成SSH密钥并分发到所有节点:
ssh-keygen -t rsa ssh-copy-id user@node1 ssh-copy-id user@node2
下载和配置Hadoop
-
下载Hadoop:
- 访问Apache Hadoop官方网站,下载所需版本的Hadoop安装包。例如,下载Hadoop 3.3.0版本:
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
- 解压安装包:
tar -xzvf hadoop-3.3.0.tar.gz -C /usr/local/hadoop
- 访问Apache Hadoop官方网站,下载所需版本的Hadoop安装包。例如,下载Hadoop 3.3.0版本:
-
配置环境变量:
- 编辑
~/.bashrc
文件,添加以下内容:export HADOOP_HOME=/usr/local/hadoop export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
- 使配置生效:
source ~/.bashrc
- 编辑
配置Hadoop
- 修改配置文件:
- core-site.xml:
fs.defaultFS hdfs://localhost:9000 - hdfs-site.xml:
dfs.replication 1 dfs.namenode.name.dir /usr/local/hadoop/dfs/name dfs.datanode.data.dir /usr/local/hadoop/dfs/data - mapred-site.xml:
mapreduce.framework.name yarn - yarn-site.xml:
yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname hadoop01
- core-site.xml:
启动Hadoop
-
格式化HDFS:
hdfs namenode -format
-
启动Hadoop集群:
start-dfs.sh start-yarn.sh
-
验证安装:
- 使用以下命令查看Hadoop的状态:
jps
- 访问Hadoop Web界面,确认HDFS和YARN是否正常运行:
- HDFS Web UI: http://localhost:9870
- YARN Resource Manager: http://localhost:8088
- 使用以下命令查看Hadoop的状态:
通过以上步骤,您可以在Linux上成功部署和配置Hadoop。希望这些信息对您有所帮助。