1. 环境准备
在Debian系统上配置HDFS前,需完成基础环境准备:
- 操作系统:确保使用Debian(如Debian 11/12),并更新至最新版本(
sudo apt update && sudo apt upgrade -y)。 - Java环境:Hadoop依赖Java 8或更高版本,推荐安装OpenJDK(如
sudo apt install openjdk-11-jdk),并通过java -version验证安装。 - SSH服务:用于节点间无密码通信,安装并启动SSH(
sudo apt install openssh-server),配置免密码登录(生成密钥ssh-keygen -t rsa,分发公钥cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys,设置权限chmod 600 ~/.ssh/authorized_keys)。
2. 下载并安装Hadoop
- 从Apache官网下载稳定版Hadoop(如3.3.1),使用
wget命令获取安装包(wget https://downloads.apache.org/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gz)。 - 解压至指定目录(如
/usr/local):sudo tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/。 - 重命名目录以便管理:
sudo mv /usr/local/hadoop-3.3.1 /usr/local/hadoop。
3. 配置Hadoop环境变量
编辑全局环境变量文件(如/etc/profile)或用户级文件(如~/.bashrc),添加以下内容:
export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64 # 根据实际Java路径调整
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
保存后运行source /etc/profile(或source ~/.bashrc)使配置生效。
4. 配置HDFS核心文件
HDFS的主要配置文件位于$HADOOP_HOME/etc/hadoop目录,需修改以下文件:
- core-site.xml:定义HDFS的默认文件系统和临时目录。
<configuration> <property> <name>fs.defaultFSname> <value>hdfs://namenode:9000value> property> <property> <name>hadoop.tmp.dirname> <value>/var/cache/hadoop/tmpvalue> property> configuration> - hdfs-site.xml:配置NameNode/Datanode目录及副本数。
<configuration> <property> <name>dfs.replicationname> <value>3value> property> <property> <name>dfs.namenode.name.dirname> <value>/data/hadoop/hdfs/namenodevalue> property> <property> <name>dfs.datanode.data.dirname> <value>/data/hadoop/hdfs/datanodevalue> property> configuration> - mapred-site.xml(若未存在,需从
mapred-site.xml.template复制):指定MapReduce运行框架为YARN。<configuration> <property> <name>mapreduce.framework.namename> <value>yarnvalue> property> configuration> - yarn-site.xml:配置YARN资源管理器。
<configuration> <property> <name>yarn.resourcemanager.hostnamename> <value>resourcemanagervalue> property> <property> <name>yarn.nodemanager.aux-servicesname> <value>mapreduce_shufflevalue> property> configuration>
5. 配置Hadoop环境文件
编辑$HADOOP_HOME/etc/hadoop/hadoop-env.sh,设置Java路径及其他环境变量:
export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64 # 与全局环境变量一致
export HADOOP_LOG_DIR=/var/log/hadoop-hdfs # 日志目录(需提前创建)
6. 格式化NameNode
在NameNode节点上执行格式化命令(仅首次启动前执行),初始化HDFS元数据:
hdfs namenode -format
格式化会清除所有HDFS数据,请谨慎操作。
7. 启动HDFS服务
- 在NameNode节点上启动HDFS:
$HADOOP_HOME/sbin/start-dfs.sh。 - 若配置了YARN,还需在ResourceManager节点上启动YARN:
$HADOOP_HOME/sbin/start-yarn.sh。 - 启动后,可通过
jps命令检查进程(NameNode、DataNode、ResourceManager、NodeManager等)是否正常运行。
8. 验证HDFS配置
- Web界面:访问NameNode的Web界面(如
http://namenode:9870,端口可能因版本不同而变化),查看集群状态。 - 命令行操作:
- 查看HDFS节点列表:
hdfs dfsadmin -report。 - 创建测试目录并上传文件:
hdfs dfs -mkdir /test、hdfs dfs -put /local/file.txt /test。 - 列出目录内容:
hdfs dfs -ls /test。
- 查看HDFS节点列表:
以上就是关于“debian hdfs配置步骤有哪些”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm