规划为 Hadoop 中各个服务分配 Kerberos 的 principal|学习笔记

简介: 快速学习规划为 Hadoop 中各个服务分配 Kerberos 的 principal

开发者学堂课程【快速掌握 Hadoop 集成 Kerberos 安全技术规划为 Hadoop 中各个服务分配 Kerberos 的 principal】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/708/detail/12560


规划为 Hadoop 中各个服务分配 Kerberos 的 principal


principal 是 Kerberos 账户,账户类型 account/instance@域,刚创建的 test/admin@ITCAST.CN 都叫做 principal。principal 相当于 Kerberos 账户的概念,账户分为三部分,账户名、实例、域。

1.预计将使用 Kerberos 的服务:

namenode、secondarynamenode、datanode、resourcemanager、nodemanager、job、historyserver、https 、hive

如果想要使用 Kerberos,Hadoop 提供的 namenode 网页必须使用 https,http 不可以。需要对 https 创建 Kerberos 账户。

如果 namenode 运行在cdh0机器上,节点配置 cdh0 作为 hadoop master 角色,运行到 cdh0 没有问题。可以分配账户 nn/cdh0.itcast.cn@ITCAST.CN

其中 nn 表示 namenode,cdho.itcastcn 是 principal 中的 instance 以主机名来代替,域 ITCAST.CN

namenode 会使用 nn/cdh0.itcast.cn@ITCAST.CN 账户管理自己。想要 namenode 成功运行,必须认证此账户后才可以操作 namenode。

执行 kinin test/admin@ITCAST.CN 查看 klist,当前 root 账户拿到 test/admin@ITCAST.CN ticket 车票。

相当于拿到 test/admin@ITCAST.CN 的 ticket 车票,缓存在 tmp/krb5cc_0

[root@cdh0 ~]# kinit test/admin@ITCAST.CN

Password for test/admin@ITCAST.CN:

[root@cdh0 ~]# klist

Ticket cache: FILE:/tmp/krb5cc_0

Default principal:test/admin@ITCAST.CN

Valid starting Expires Service principal

09/27/1917:38:16 09/28/19 17:38:16 krbtgt/ITCAST.CN@IITCAST.C

N

renew until 09/27/19 17:38:16

[root@cdh0 ~]#运行 namenode 需要拿到 nn/cdh0.itcast.cn@ITCAST.CN 账户的车票。Hadoop 配置文件中要求 namenode 绑定到 nn/cdh0.itcast.cn@ITCAST.CN 账户上,想要操作 namenode 必须有 nn/cdh0.itcast.cn@ITCAST.CN 账户的车票,才能管理操作 namenode 进程。

2.其他服务可以有

sn:对应 secondarynamenode

dn : datanode

rm:resourcemanager

nm:nodemanager

jhs: job history server

HTTP:https 相关服务

hive:hive 服务

想要操作它们必须拿到对应的 Kerberos 账户提供的车票。

datanode 使用 dn/,datanode 可能运行在 cdh1或 cdh2,dn/cdh

1.itcast.cn@ITCAST.CN,nodemanager 运行在 cdh2,nm/cdh2.itca

st.cn@ITCAST.CN。dn、nm 不是固定的,可以叫 nodemanager/cdh2

.itcast.cn@ITCAST.CN,为了账户名更简短使用 nm,太长不好写。

了解上述规则,先不创建具体用户,在用到的地方创建,避免提前创建和预期不符合。

相关文章
|
分布式计算 Hadoop 数据库
Hadoop学习笔记(HDP)-Part.08 部署Ambari集群
本文为HDP集群部署系列教程第八部分,详细介绍如何通过Ambari搭建HDP集群。涵盖Ambari数据库配置、ambari-server与ambari-agent的安装部署、自动化设置及Web界面登录等步骤,助力用户高效完成集群管理平台搭建。
512 0
|
SQL 存储 数据管理
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
221 2
|
分布式计算 资源调度 安全
Hadoop停止所有Hadoop服务
【7月更文挑战第20天】
467 2
|
分布式计算 资源调度 Hadoop
安装hadoop学习笔记
安装hadoop学习笔记
131 0
安装hadoop学习笔记
|
分布式计算 资源调度 Hadoop
重启Hadoop服务
【4月更文挑战第18天】重启Hadoop服务涉及五个步骤:1) 停止所有服务,如使用`stop-all.sh`;2) 检查服务是否停止,通过jps命令;3) 清理临时数据和日志;4) 使用`start-all.sh`重启服务;5) 再次用jps确认服务启动。注意,步骤依Hadoop版本和配置而异,操作前需谨慎并参考官方文档,以防影响运行中的应用程序。
517 2
|
分布式计算 Hadoop 关系型数据库
Hadoop学习笔记(HDP)-Part.10 创建集群
本文为HDP集群部署系列第十篇,详细介绍通过Ambari创建集群的完整流程,包括版本选择、节点配置、服务安装及ZooKeeper核心参数解析,涵盖常用命令与典型问题处理,助力高效搭建稳定大数据环境。
490 0
|
分布式计算 Hadoop 网络安全
Hadoop学习笔记(HDP)-Part.04 基础环境配置
本文为HDP集群部署系列教程,涵盖从环境准备到组件安装的完整流程。包括SSH免密登录、Ansible自动化配置、主机名与hosts设置、基础软件安装、防火墙与SELinux关闭、NTP时钟同步及磁盘分区挂载等关键步骤,为后续Ambari与大数据组件部署打下坚实基础。
244 0
|
存储 机器学习/深度学习 分布式计算
Hadoop学习笔记(HDP)-Part.12 安装HDFS
本系列为HDP大数据平台部署实战指南,涵盖HDFS、YARN、Hive等核心组件安装配置,详解Ambari集群搭建、Kerberos安全认证及高可用实现,助力快速构建企业级大数据环境。
742 0
|
分布式计算 Java Hadoop
Hadoop学习笔记(HDP)-Part.11 安装Kerberos
本文详细介绍HDP集群中Kerberos的安装与配置,涵盖服务端客户端部署、关键配置文件修改、数据库创建、Ambari集成及常用管理命令,助力构建安全认证的大数据环境。
635 0
|
存储 分布式计算 Hadoop
Hadoop学习笔记(HDP)-Part.09 安装OpenLDAP
本系列教程涵盖HDP大数据平台部署全流程,从环境准备、组件安装到高可用配置。第九部分重点介绍OpenLDAP的安装与配置,包括服务端/客户端部署、主从同步、Keepalived+HAProxy高可用架构搭建,以及通过phpldapadmin实现Web管理,为集群提供统一用户认证服务。
446 0

相关实验场景

更多