阅读量:3
Linux下Hadoop网络配置步骤
1. 设置Linux基础网络环境
- 配置静态IP地址:编辑网络接口配置文件(如CentOS的
/etc/sysconfig/network-scripts/ifcfg-ens33、Debian的/etc/network/interfaces),设置静态IP、子网掩码、网关和DNS,确保各节点IP在同一网段且唯一。例如:重启网络服务使配置生效:TYPE=Ethernet BOOTPROTO=static IPADDR=192.168.1.100 NETMASK=255.255.255.0 GATEWAY=192.168.1.1 DNS1=8.8.8.8 ONBOOT=yessystemctl restart network(CentOS)或systemctl restart networking(Debian)。 - 配置主机名:使用
hostnamectl set-hostname <主机名>(如master、slave1)修改节点主机名,重启后生效。 - 绑定IP与主机名映射:编辑所有节点的
/etc/hosts文件,添加IP与主机名的对应关系(避免依赖DNS):192.168.1.100 master 192.168.1.101 slave1 192.168.1.102 slave2
2. 配置SSH免密码登录
Hadoop集群节点间需要无密码通信(如NameNode与DataNode、ResourceManager与NodeManager),步骤如下:
- 生成SSH密钥对:在主节点(如
master)执行ssh-keygen -t rsa(直接回车,默认保存到~/.ssh/id_rsa)。 - 分发公钥到所有节点:使用
ssh-copy-id master(主节点自身)和ssh-copy-id slave1、ssh-copy-id slave2(从节点),将公钥添加到目标节点的~/.ssh/authorized_keys文件中。 - 验证免密登录:执行
ssh master、ssh slave1,无需输入密码即可登录,确认配置成功。
3. 修改Hadoop核心配置文件
Hadoop的网络通信依赖以下核心配置文件的正确设置(位于$HADOOP_HOME/etc/hadoop目录):
- core-site.xml:配置Hadoop默认文件系统和临时目录(所有节点通用):
<configuration> <property> <name>fs.defaultFSname> <value>hdfs://master:9000value> property> <property> <name>hadoop.tmp.dirname> <value>/opt/hadoop/tmpvalue> property> configuration> - hdfs-site.xml:配置HDFS副本数、NameNode/DataNode数据目录(所有节点通用):
<configuration> <property> <name>dfs.replicationname> <value>3value> property> <property> <name>dfs.namenode.name.dirname> <value>/opt/hadoop/dfs/namevalue> property> <property> <name>dfs.datanode.data.dirname> <value>/opt/hadoop/dfs/datavalue> property> configuration> - yarn-site.xml:配置YARN资源管理器及Shuffle服务(所有节点通用):
<configuration> <property> <name>yarn.resourcemanager.hostnamename> <value>mastervalue> property> <property> <name>yarn.nodemanager.aux-servicesname> <value>mapreduce_shufflevalue> property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.classname> <value>org.apache.hadoop.mapred.ShuffleHandlervalue> property> configuration> - mapred-site.xml(若未自动生成,需从
mapred-site.xml.template复制):配置MapReduce运行框架为YARN(所有节点通用):<configuration> <property> <name>mapreduce.framework.namename> <value>yarnvalue> property> configuration> - slaves文件(可选,但推荐):列出所有DataNode和NodeManager节点的主机名(位于
$HADOOP_HOME/etc/hadoop),方便集群管理:slave1 slave2
4. 关闭防火墙与SELinux
- 关闭防火墙:临时停止防火墙(测试环境):
systemctl stop firewalld(CentOS)或systemctl stop ufw(Ubuntu);永久禁用:systemctl disable firewalld。 - 关闭SELinux:临时设置:
setenforce 0;永久设置:编辑/etc/selinux/config,将SELINUX=enforcing改为SELINUX=disabled,重启生效。
5. 格式化NameNode并启动集群
- 格式化NameNode:首次启动前需格式化NameNode(清除旧元数据),在主节点执行:
hdfs namenode -format - 启动Hadoop集群:依次启动HDFS和YARN服务:
start-dfs.sh # 启动HDFS(NameNode、DataNode) start-yarn.sh # 启动YARN(ResourceManager、NodeManager) - 验证集群状态:
- 使用
jps命令查看各节点进程(主节点应有NameNode、ResourceManager;从节点应有DataNode、NodeManager)。 - 访问Hadoop Web界面:HDFS(
http://master:50070)、YARN(http://master:8088),确认集群运行正常。
- 使用
注意事项
- 所有节点的时间需同步(可使用
ntpdate命令同步NTP服务器时间),避免因时间差导致通信问题。 - 生产环境中,建议开启Hadoop的日志功能(通过
log4j.properties配置),便于排查网络或服务问题。 - 若节点间无法通信,需检查
/etc/hosts映射是否正确、防火墙是否放行Hadoop端口(如HDFS的9000、YARN的8032等)。
以上就是关于“Linux下Hadoop怎样配置网络”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm