Kubernetes 资源管理策略 ResourceQuota
tags: ResourceQuota,策略
文章目录
Kubernetes 资源管理策略 ResourceQuota
1. 简介
2. 场景
3. 架构图
4. 启用资源配额
5. 计算资源配额
6. 资源的资源配额
7. 存储资源配额
8. 对象计数配额
9. 配额范围
10. pod 配置 PriorityClass 优先级消耗资源
11. 跨命名空间 Pod Affinity Quota
12. 创建与查看 ResourceQuota
12.1 创建
12.2 查看
13. 默认限制优先级消耗
14. 实例
14.1 pod 请求或限制 cpu、mem 超出资源配置
1. 简介
简而言之,ResourceQuota 提供了限制每个命名空间的资源消耗的约束。它们只能应用于命名空间级别,这意味着它们可以应用于计算资源并限制命名空间内的对象数量。
Kubernetes 资源配额由ResourceQuota对象定义。当应用于命名空间时,它可以限制 CPU 和内存等计算资源以及以下对象的创建:
Pods
Services
Secrets
Persistent Volume Claims (PVCs)
ConfigMaps
2. 场景
当多个用户或团队共享具有固定数量节点的集群时,一个团队可能会使用超过其公平份额的资源。
资源配额是管理员解决此问题的工具。
由ResourceQuota对象定义的资源配额提供限制每个命名空间的聚合资源消耗的约束。它可以按类型限制可以在命名空间中创建的对象数量,以及该命名空间中的资源可能消耗的计算资源总量。
资源配额的工作方式如下:
不同的团队在不同的命名空间中工作。这可以通过RBAC强制执行。
管理员为每个命名空间创建一个 ResourceQuota。
用户在命名空间中创建资源(pod、服务等),配额系统会跟踪使用情况,以确保它不超过 ResourceQuota 中定义的硬资源限制。
如果创建或更新资源违反了配额约束,则请求将失败并显示 HTTP 状态代码403 FORBIDDEN,并显示一条消息,解释可能违反的约束。
cpu如果在命名空间中为和之类的计算资源启用了配额memory,则用户必须为这些值指定请求或限制;否则,配额系统可能会拒绝创建 pod。提示:使用LimitRanger准入控制器强制对没有计算资源要求的 pod 使用默认值。
ResourceQuota 对象的名称必须是有效的 DNS 子域名。
可以使用命名空间和配额创建的策略示例如下:
在容量为 32 GiB RAM 和 16 CPU 的集群中,让团队 A 使用 20 GiB 和 10 CPU,让 B 使用 10GiB 和 4
CPU,并保留 2GiB 和 2 CPU以供将来分配。
将“测试”命名空间限制为使用 1 CPU 和 1GiB RAM。让“生产”命名空间使用任意数量。
在集群总容量小于命名空间配额之和的情况下,可能会发生资源争用。这是按照先到先得的原则处理的。
争用或更改配额都不会影响已创建的资源。
3. 架构图
4. 启用资源配额
许多 Kubernetes 发行版默认启用资源配额支持。它启用时API 服务器 --enable-admission-plugins=flagResourceQuota
作为其参数之一。
当特定命名空间中存在 ResourceQuota 时,将在该命名空间中强制执行资源配额。
5. 计算资源配额
6. 资源的资源配额
除了上面提到的资源,在 1.10 版本中,增加了对 扩展资源的配额支持。
由于扩展资源不允许过度使用,因此在配额中同时指定requests 和limits为同一扩展资源指定是没有意义的。所以对于扩展资源,目前只requests.允许带前缀的配额项。
以 GPU 资源为例,如果资源名称为nvidia.com/gpu,并且您想限制一个命名空间中请求的 GPU 总数为 4,您可以定义配额如下:
requests.nvidia.com/gpu: 4
7. 存储资源配额
您可以限制给定命名空间中可以请求的存储资源的总和。
此外,您可以根据关联的存储类限制存储资源的消耗。
<storage-class-name>.storageclass.storage.k8s.io/persistentvolumeclaims 在与 storage-class-name 关联的所有持久卷声明中,可以存在于命名空间中的持久卷声明的总数。
例如,如果运营商想要使用与gold存储类分开的bronze存储类来配额存储,则运营商可以定义如下配额:
gold.storageclass.storage.k8s.io/requests.storage: 500Gi
bronze.storageclass.storage.k8s.io/requests.storage: 100Gi
在 1.8 版中,添加了对本地临时存储的配额支持作为 alpha 功能:
注意:使用 CRI 容器运行时,容器日志将计入临时存储配额。这可能会导致已用完存储配额的 pod 被意外驱逐。
8. 对象计数配额
您可以使用以下语法为所有标准命名空间资源类型的某些资源的总数设置配额:
count/<resource>.<group>来自非核心组的资源
count/<resource>来自核心组的资源
以下是用户可能希望放在对象计数配额下的一组示例资源:
count/persistentvolumeclaims
count/services
count/secrets
count/configmaps
count/replicationcontrollers
count/deployments.apps
count/replicasets.apps
count/statefulsets.apps
count/jobs.batch
count/cronjobs.batch相同的语法可用于自定义资源。例如,要在API 组中的widgets自定义资源上创建配额,请使用.example.comcount/widgets.example.com
使用count/*资源配额时,如果对象存在于服务器存储中,则按配额收费。这些类型的配额有助于防止存储资源耗尽。例如,鉴于服务器的大小,您可能希望限制服务器中的 Secret 数量。集群中过多的 Secrets 实际上会阻止服务器和控制器启动。您可以为作业设置配额以防止配置不当的 CronJob。在命名空间中创建过多作业的 CronJobs 可能会导致拒绝服务。
也可以对有限的资源集进行通用对象计数配额。支持以下类型:
例如,pods
配额计算并强制限制在pods 单个命名空间中创建的非终端数量。您可能希望pods 在命名空间上设置配额,以避免用户创建许多小型 Pod 并耗尽集群的 Pod IP 供应的情况。
9. 配额范围
每个配额可以有一组关联的scopes. 如果配额与枚举范围的交集匹配,则配额只会衡量资源的使用情况。
将范围添加到配额时,它会将其支持的资源数量限制为与该范围相关的资源。在允许集之外的配额上指定的资源会导致验证错误。
范围将BestEffort配额限制为跟踪以下资源:
pods
Terminating和NotTerminating范围将配额限制NotBestEffort为PriorityClass 跟踪以下资源:
pods
cpu
memory
requests.cpu
requests.memory
limits.cpu
limits.memory
支持字段中的scopeSelector以下值operator:
In
NotIn
Exists
DoesNotExist
当定义 scopeSelector时,使用以下值之一作为scopeName,operator必须是Exists
Terminating
NotTerminating
BestEffort
NotBestEffort
如果operator是In或Not In,则该values字段必须至少有一个值。例如:
scopeSelector: matchExpressions: - scopeName: PriorityClass operator: In values: - middle
如果operator
是Exists
或DoesNotExist
,则不得指定该values
字段。
10. pod 配置 PriorityClass 优先级消耗资源
征状态: Kubernetes v1.17 [stable]
可以按特定的优先级创建 Pod 。scopeSelector 您可以使用配额规范中的字段,根据 Pod 的优先级控制 Pod 对系统资源的消耗。
只有scopeSelector在配额规范中选择 pod 时才会匹配和消耗配额。
当配额使用字段限定为优先级时scopeSelector,配额对象被限制为仅跟踪以下资源:
pods
cpu
memory
ephemeral-storage
limits.cpu
limits.memory
limits.ephemeral-storage
requests.cpu
requests.memory
requests.ephemeral-storage
此示例创建一个配额对象并将其与特定优先级的 pod 匹配。该示例的工作原理如下:
集群中的 Pod 具有三个优先级类别之一,“低”、“中”、“高”。
为每个优先级创建一个配额对象。
将以下 YAML 保存到文件quota.yml中。
apiVersion: v1 kind: List items: - apiVersion: v1 kind: ResourceQuota metadata: name: pods-high spec: hard: cpu: "1000" memory: 200Gi pods: "10" scopeSelector: matchExpressions: - operator : In scopeName: PriorityClass values: ["high"] - apiVersion: v1 kind: ResourceQuota metadata: name: pods-medium spec: hard: cpu: "10" memory: 20Gi pods: "10" scopeSelector: matchExpressions: - operator : In scopeName: PriorityClass values: ["medium"] - apiVersion: v1 kind: ResourceQuota metadata: name: pods-low spec: hard: cpu: "5" memory: 10Gi pods: "10" scopeSelector: matchExpressions: - operator : In scopeName: PriorityClass values: ["low"]
创建 低、中、高 ResourceQuota
kubectl create -f ./quota.yml
验证Used配额正在0使用kubectl describe quota
.
$ kubectl describe quota .... Name: pods-high Namespace: default Resource Used Hard -------- ---- ---- cpu 0 1k memory 0 200Gi pods 0 10 Name: pods-low Namespace: default Resource Used Hard -------- ---- ---- cpu 0 5 memory 0 10Gi pods 0 10 Name: pods-medium Namespace: default Resource Used Hard -------- ---- ---- cpu 0 10 memory 0 20Gi pods 0 10
创建一个优先级为“高”的 pod。将以下 YAML 保存到文件high-priority-pod.yml
中。
apiVersion: v1 kind: Pod metadata: name: high-priority spec: containers: - name: high-priority image: ubuntu command: ["/bin/sh"] args: ["-c", "while true; do echo hello; sleep 10;done"] resources: requests: memory: "10Gi" cpu: "500m" limits: memory: "10Gi" cpu: "500m" priorityClassName: high
创建 high pod
kubectl create -f ./high-priority-pod.yml
验证 ResourceQuota 使用情况
kubectl describe quota Name: pods-high Namespace: default Resource Used Hard -------- ---- ---- cpu 500m 1k memory 10Gi 200Gi pods 1 10 Name: pods-low Namespace: default Resource Used Hard -------- ---- ---- cpu 0 5 memory 0 10Gi pods 0 10 Name: pods-medium Namespace: default Resource Used Hard -------- ---- ---- cpu 0 10 memory 0 20Gi pods 0 10