阅读量:3
Ubuntu中HDFS启动步骤
1. 准备工作
在启动HDFS前,需完成以下基础配置:
- 安装Java环境:Hadoop依赖Java,需安装OpenJDK 8(或更高版本)。执行
sudo apt update && sudo apt install openjdk-8-jdk安装,通过java -version验证安装成功。 - 下载并解压Hadoop:从Apache官网下载Hadoop二进制包(如hadoop-3.3.1.tar.gz),解压至目标目录(如
/usr/local/hadoop)。执行wget https://downloads.apache.org/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gz下载,tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/解压。 - 配置环境变量:编辑
~/.bashrc文件,添加export HADOOP_HOME=/usr/local/hadoop(Hadoop安装路径)和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin(Hadoop命令路径),执行source ~/.bashrc使配置生效。
2. 配置HDFS核心参数
进入Hadoop配置目录($HADOOP_HOME/etc/hadoop),修改以下文件:
- core-site.xml:设置HDFS默认文件系统地址,添加
(fs.defaultFS hdfs://localhost:9000 localhost表示单机模式,集群模式需替换为NameNode主机名)。 - hdfs-site.xml:配置NameNode和DataNode数据目录及副本数,添加:
<property><name>dfs.replicationname><value>1value>property> <property><name>dfs.namenode.name.dirname><value>/path/to/hadoop/hdfs/namenodevalue>property> <property><name>dfs.datanode.data.dirname><value>/path/to/hadoop/hdfs/datanodevalue>property> - 创建数据目录:执行
sudo mkdir -p /path/to/hadoop/hdfs/namenode和sudo mkdir -p /path/to/hadoop/hdfs/datanode创建目录,确保Hadoop用户有读写权限(chown -R hadoop:hadoop /path/to/hadoop/hdfs)。
3. 格式化NameNode
首次启动HDFS前,需格式化NameNode以初始化元数据(注意:格式化会清除已有数据,仅首次启动或重置时执行)。执行hdfs namenode -format,等待命令完成(提示“NameNode formatted successfully”即为成功)。
4. 启动HDFS服务
执行start-dfs.sh命令(位于$HADOOP_HOME/sbin目录),该脚本会自动启动NameNode(主节点)和DataNode(数据节点)守护进程。若需单独启动DataNode,可执行hadoop-daemon.sh start datanode(单机模式无需此步)。
5. 验证HDFS运行状态
- 命令行验证:执行
jps命令,若输出包含NameNode、DataNode(及SecondaryNameNode,可选),说明HDFS进程已启动。 - Web界面验证:打开浏览器访问
http://localhost:9000(默认端口),若看到HDFS文件系统状态页面(显示“Live Nodes”数量≥1),则说明HDFS启动成功。
以上就是关于“Ubuntu中HDFS如何启动”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm