在Debian上部署Hadoop集群涉及多个步骤,包括硬件配置、软件安装、网络设置、数据存储和集群管理等。以下是一个详细的步骤指南:
硬件配置
-
节点类型:
- NameNode:1台(主节点,负责管理HDFS元数据)
- DataNode:多台(数据存储节点,负责存储实际数据)
- ResourceManager:1台(负责管理YARN资源)
- NodeManager:多台(负责管理YARN任务)
-
硬件要求:
- CPU:至少4核,推荐8核以上
- 内存:每个节点至少16GB,推荐32GB以上
- 存储:NameNode:SSD,至少500GB;DataNode:HDD或SSD,视数据量而定,推荐每个节点至少2TB
- 网络:千兆以太网,推荐使用万兆以太网
软件环境
- 操作系统:推荐使用Debian Linux发行版。
- 安装Java:Hadoop需要Java环境,确保安装Java 8或更高版本。
sudo apt update sudo apt install openjdk-8-jdk
- 下载Hadoop:从Hadoop官网下载最新版本的Hadoop。
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -xzvf hadoop-3.3.1.tar.gz sudo mv hadoop-3.3.1 /usr/local/hadoop
网络设置
- 确保所有节点之间可以互相通信,配置
/etc/hosts
文件,添加所有节点的IP和主机名。192.168.1.1 namenode 192.168.1.2 datanode1 192.168.1.3 datanode2
配置Hadoop
-
配置环境变量:在每个节点的
~/.bashrc
文件中添加以下内容:export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使更改生效:
source ~/.bashrc
-
配置Hadoop文件:在Hadoop目录下,编辑以下配置文件:
core-site.xml
:fs.defaultFS hdfs://namenode:9000 hdfs-site.xml
:dfs.replication 3 dfs.namenode.name.dir file:///usr/local/hadoop/dfs/name dfs.datanode.data.dir file:///usr/local/hadoop/dfs/data mapred-site.xml
:mapreduce.framework.name yarn yarn-site.xml
:yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler
格式化HDFS
在NameNode上运行以下命令格式化HDFS:
hdfs namenode -format
启动Hadoop服务
在NameNode上启动Hadoop的NameNode和DataNode:
start-dfs.sh
在ResourceManager上启动YARN:
start-yarn.sh
验证安装
可以通过以下命令验证Hadoop是否正常运行:
jps
这将显示Hadoop集群中所有主要进程的进程ID。