阅读量:2
一、扩容操作步骤
-
准备新节点
- 确保新节点安装JDK、Hadoop环境,配置主机名、SSH免密登录及
/etc/hosts文件。 - 将主节点Hadoop配置文件(
core-site.xml、hdfs-site.xml等)同步至新节点。
- 确保新节点安装JDK、Hadoop环境,配置主机名、SSH免密登录及
-
添加节点到集群
- 在主节点的
slaves(或workers)文件中添加新节点主机名。 - 若启用白名单,在
hdfs-site.xml中配置dfs.hosts属性并添加新节点。
- 在主节点的
-
启动新节点服务
- 在新节点执行:
hadoop-daemon.sh start datanode yarn-daemon.sh start nodemanager
- 在新节点执行:
-
负载均衡(可选)
- 在主节点执行:
hdfs balancer -threshold 10 # 设置数据迁移阈值
- 在主节点执行:
-
验证扩容
- 通过Web界面(NameNode:
http://主节点IP:9870,ResourceManager:http://主节点IP:8088)查看节点状态。 - 使用命令
hdfs dfsadmin -report确认新节点已加入。
- 通过Web界面(NameNode:
二、缩容操作步骤
-
标记退役节点
- 在主节点的
hdfs-site.xml中配置dfs.hosts.exclude文件,添加需移除节点主机名。 - 重启NameNode使配置生效:
sbin/stop-dfs.sh && sbin/start-dfs.sh
- 在主节点的
-
停止节点服务
- 在待移除节点执行:
hadoop-daemon.sh stop datanode yarn-daemon.sh stop nodemanager
- 在待移除节点执行:
-
数据迁移
- 启动Balancer将数据从退役节点迁移至其他节点:
hdfs balancer -threshold 10
- 启动Balancer将数据从退役节点迁移至其他节点:
-
验证缩容
- 通过Web界面或命令
hdfs dfsadmin -report确认节点已移除且数据分布正常。
- 通过Web界面或命令
-
清理配置
- 从
slaves文件中删除退役节点主机名,并同步至其他节点。
- 从
三、注意事项
- 数据安全:缩容前确保副本因子≥3,避免数据丢失。
- 低峰操作:建议在业务低峰期执行,减少对集群性能影响。
- 版本一致性:所有节点Hadoop版本需一致,避免兼容性问题。
- 日志监控:操作后检查NameNode、DataNode日志,排查异常。
参考来源:
以上就是关于“Linux Hadoop集群如何进行扩容与缩容”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm