现在进入刚建立的容器:
docker exec -it hdfs_single su hadoop 现在应该是 hadoop 用户:
whoami 应该显示 "hadoop"
生成 SSH 密钥:
ssh-keygen -t rsa 这里可以一直按回车直到生成结束。
然后将生成的密钥添加到信任列表:
ssh-copy-id hadoop@172.17.0.2 查看容器 IP 地址:
ip addr | grep 172
从而得知容器的 IP 地址是 172.17.0.2,你们的 IP 可能会与此不同。
在启动 HDFS 以前我们对其进行一些简单配置,Hadoop 配置文件全部储存在安装目录下的 etc/hadoop 子目录下,所以我们可以进入此目录:
cd $HADOOP_HOME/etc/hadoop 这里我们修改两个文件:core-site.xml 和 hdfs-site.xml
在 core-site.xml 中,我们在 标签下添加属性:
fs.defaultFS hdfs://<你的IP>:9000 在 hdfs-site.xml 中的 标签下添加属性:
dfs.replication 1 格式化文件结构:
hdfs namenode -format 然后启动 HDFS:
start-dfs.sh 启动分三个步骤,分别启动 NameNode、DataNode 和 Secondary NameNode。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。