一、基础网络环境配置
-
设置静态IP地址
静态IP是集群节点稳定通信的基础,需根据Linux发行版修改对应网络配置文件:- Debian/Ubuntu:编辑
/etc/network/interfaces,添加以下内容(以eth0为例):auto eth0 iface eth0 inet static address 192.168.1.100 # 节点IP地址 netmask 255.255.255.0 # 子网掩码 gateway 192.168.1.1 # 网关地址 dns-nameservers 8.8.8.8 8.8.4.4 # DNS服务器 - CentOS/RHEL:编辑
/etc/sysconfig/network-scripts/ifcfg-eth0(eth0为网卡名),设置:TYPE=Ethernet BOOTPROTO=static IPADDR=192.168.1.100 NETMASK=255.255.255.0 GATEWAY=192.168.1.1 DNS1=8.8.8.8 ONBOOT=yes # 开机自启
保存后重启网络服务:
systemctl restart network(CentOS 7以下)或systemctl restart NetworkManager(CentOS 7及以上)。 - Debian/Ubuntu:编辑
-
配置主机名与hosts映射
- 设置节点主机名(如
master、slave1):hostnamectl set-hostname <主机名>。 - 编辑
/etc/hosts文件,添加IP与主机名的映射(所有节点需一致):192.168.1.100 master 192.168.1.101 slave1 192.168.1.102 slave2
这样可通过主机名直接访问节点,避免依赖DNS。
- 设置节点主机名(如
-
关闭防火墙与SELinux
- 临时关闭防火墙:
systemctl stop firewalld(CentOS)或systemctl stop ufw(Ubuntu)。 - 永久禁用防火墙:
systemctl disable firewalld。 - 关闭SELinux(开发环境推荐):
setenforce 0 # 临时关闭 sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config # 永久关闭
防火墙和SELinux可能会阻止Hadoop节点间的通信,关闭后可避免端口访问问题。
- 临时关闭防火墙:
二、SSH免密码登录配置 Hadoop集群节点间需要频繁通信(如NameNode与DataNode、ResourceManager与NodeManager),配置SSH免密码登录可简化操作:
- 在主节点(如
master)生成SSH密钥对:ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa # 默认保存路径~/.ssh/ - 将公钥复制到所有从节点(如
slave1、slave2):ssh-copy-id master # 复制到本机(可选) ssh-copy-id slave1 ssh-copy-id slave2 - 验证免密登录:
注意:确保ssh master # 无需输入密码即可登录 ssh slave1~/.ssh目录权限为700,~/.ssh/authorized_keys权限为600(chmod 700 ~/.ssh; chmod 600 ~/.ssh/authorized_keys)。
三、Hadoop核心网络配置文件
Hadoop的网络行为主要由core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml四个核心配置文件控制:
- core-site.xml
配置HDFS默认文件系统和Hadoop临时目录:<configuration> <property> <name>fs.defaultFSname> <value>hdfs://master:9000value> property> <property> <name>hadoop.tmp.dirname> <value>/opt/hadoop/tmpvalue> property> configuration> - hdfs-site.xml
配置HDFS副本数(生产环境建议3个)和数据存储目录:<configuration> <property> <name>dfs.replicationname> <value>3value> property> <property> <name>dfs.namenode.name.dirname> <value>/opt/hadoop/namenodevalue> property> <property> <name>dfs.datanode.data.dirname> <value>/opt/hadoop/datanodevalue> property> configuration> - mapred-site.xml
配置MapReduce运行框架为YARN(提升资源利用率):<configuration> <property> <name>mapreduce.framework.namename> <value>yarnvalue> property> configuration> - yarn-site.xml
配置YARN资源管理器(ResourceManager)和节点管理器(NodeManager):以上配置需根据集群规模(如节点数量、数据量)调整,例如<configuration> <property> <name>yarn.resourcemanager.hostnamename> <value>mastervalue> property> <property> <name>yarn.nodemanager.aux-servicesname> <value>mapreduce_shufflevalue> property> configuration>dfs.replication在测试环境可设为1。
四、验证网络配置
- 检查节点连通性:
在主节点使用ping命令测试与从节点的连通性(如ping slave1),确保网络畅通。 - 验证SSH免密登录:
执行ssh slave1,确认无需输入密码即可登录。 - 启动Hadoop集群:
- 格式化NameNode(首次启动需执行):
hdfs namenode -format。 - 启动HDFS:
start-dfs.sh。 - 启动YARN:
start-yarn.sh。
- 格式化NameNode(首次启动需执行):
- 检查服务状态:
- 查看Hadoop进程:
jps(应显示NameNode、DataNode、ResourceManager、NodeManager等进程)。 - 访问Web界面:HDFS(
http://master:50070)、YARN(http://master:8088),确认集群状态正常。
- 查看Hadoop进程:
以上就是关于“Hadoop在Linux上的网络配置怎么做”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm