阅读量:2
以下是在Ubuntu上配置HDFS的步骤:
-
安装Java
sudo apt update sudo apt install openjdk-8-jdk # 或 openjdk-11-jdk java -version # 验证安装 -
下载并解压Hadoop
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz tar -xzvf hadoop-3.3.4.tar.gz -C /usr/local/ sudo mv hadoop-3.3.4 hadoop # 可选:重命名目录 -
配置环境变量
编辑~/.bashrc,添加:export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc -
配置HDFS核心文件
进入$HADOOP_HOME/etc/hadoop,编辑以下文件:- core-site.xml:
<property> <name>fs.defaultFSname> <value>hdfs://localhost:9000value> property> - hdfs-site.xml:
<property> <name>dfs.replicationname> <value>1value> # 单节点设为1 property> <property> <name>dfs.namenode.name.dirname> <value>/usr/local/hadoop/data/namenodevalue> property> <property> <name>dfs.datanode.data.dirname> <value>/usr/local/hadoop/data/datanodevalue> property> - yarn-site.xml(若需YARN):
<property> <name>yarn.nodemanager.aux-servicesname> <value>mapreduce_shufflevalue> property>
- core-site.xml:
-
格式化NameNode
hdfs namenode -format -
启动HDFS
start-dfs.sh -
验证HDFS
- 查看进程:
jps(应看到NameNode、DataNode) - 访问Web界面:
http://localhost:50070
- 查看进程:
可选:若需配置YARN,需编辑mapred-site.xml并启动YARN服务。
注意:多节点集群需配置SSH免密登录、修改hdfs-site.xml中dfs.namenode.secondary.http-address等参数。
以上就是关于“Ubuntu上HDFS配置步骤是什么”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm