开发者社区> 问答> 正文

启动 HDFS的步骤是什么?

启动 HDFS的步骤是什么?

展开
收起
游客fbdr25iajcjto 2021-12-05 10:34:47 690 0
1 条回答
写回答
取消 提交回答
  • 现在进入刚建立的容器:

    docker exec -it hdfs_single su hadoop 现在应该是 hadoop 用户:

    whoami 应该显示 "hadoop"

    生成 SSH 密钥:

    ssh-keygen -t rsa 这里可以一直按回车直到生成结束。

    然后将生成的密钥添加到信任列表:

    ssh-copy-id hadoop@172.17.0.2 查看容器 IP 地址:

    ip addr | grep 172

    从而得知容器的 IP 地址是 172.17.0.2,你们的 IP 可能会与此不同。

    在启动 HDFS 以前我们对其进行一些简单配置,Hadoop 配置文件全部储存在安装目录下的 etc/hadoop 子目录下,所以我们可以进入此目录:

    cd $HADOOP_HOME/etc/hadoop 这里我们修改两个文件:core-site.xml 和 hdfs-site.xml

    在 core-site.xml 中,我们在 标签下添加属性:

    fs.defaultFS hdfs://<你的IP>:9000 在 hdfs-site.xml 中的 标签下添加属性:

    dfs.replication 1 格式化文件结构:

    hdfs namenode -format 然后启动 HDFS:

    start-dfs.sh 启动分三个步骤,分别启动 NameNode、DataNode 和 Secondary NameNode。

    2021-12-05 10:35:34
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
海量数据分布式存储——Apache HDFS之最新进展 立即下载
HBase源码解析 立即下载
What’s new in Hadoop Common and HDFS 立即下载

相关实验场景

更多