HDFS高可用性(High Availability, HA)配置是为了防止单点故障,确保在关键组件出现故障时系统仍然可以继续工作。以下是一个基本的HDFS高可用配置步骤:
1. 集群规划
- 规划图:确定集群中各个节点的角色(NameNode、DataNode、JournalNode、ZooKeeper等)。
- 实验说明:根据实际节点数量和规划图进行配置。
2. 配置ZooKeeper
- 安装ZooKeeper:在每个节点上安装并配置ZooKeeper。
- 配置zoo.cfg:设置ZooKeeper集群的配置文件,包括数据目录、客户端连接端口等。
3. 修改Hadoop配置文件
修改core-site.xml
fs.defaultFS hdfs://mycluster hadoop.tmp.dir /usr/local/soft/hadoop/data/tmp ha.zookeeper.quorum master:2181,node1:2181,node2:2181
修改hdfs-site.xml
dfs.nameservices mycluster dfs.ha.namenodes.mycluster nn1,nn2 dfs.namenode.rpc-address.mycluster.nn1 master:8020 dfs.namenode.rpc-address.mycluster.nn2 slave1:8020 dfs.namenode.http-address.mycluster.nn1 master:50070 dfs.namenode.http-address.mycluster.nn2 slave1:50070 dfs.namenode.shared.edits.dir qjournal://master:8485;slave1:8485;slave2:8485/mycluster dfs.journalnode.edits.dir /home/hadoop-sny/bigdata/dfs/journal/data dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.automatic-failover.enabled true
4. 启动HDFS集群
- 格式化NameNode:在主NameNode上执行格式化命令。
- 启动JournalNode:在各节点上启动JournalNode服务。
- 启动NameNode:分别启动两个NameNode,一个处于Active状态,另一个处于Standby状态。
- 启动DataNode:在各节点上启动DataNode服务,并确保它们向两个NameNode汇报数据块信息。
5. 验证配置
- 检查NameNode状态:使用
hdfs dfsadmin -report
命令检查NameNode的状态,确保它们正常运行。 - 模拟故障转移:模拟NameNode故障,验证自动故障转移机制是否正常工作。
注意事项
- 数据一致性:确保JournalNode集群配置正确,以保证元数据同步。
- 监控和日志:配置监控工具,如Ganglia、Prometheus等,实时监控集群状态,并查看日志以便排查问题。