Skip to content

22.亲和性调度

一般情况下我们部署的 Pod 是通过集群的自动调度策略来选择节点的,默认情况下调度器考虑的是资源足够,并且负载尽量平均,但是有的时候我们需要能够更加细粒度的去控制 Pod 的调度,比如我们希望一些机器学习的应用只跑在有 GPU 的节点上;但是有的时候我们的服务之间交流比较频繁,又希望能够将这服务的 Pod 都调度到同一个的节点上。这就需要使用一些调度方式来控制 Pod 的调度了,主要有两个概念:亲和性和反亲和性,亲和性又分成节点亲和性(nodeAffinity)和 Pod 亲和性(podAffinity)。

nodeSelector

在了解亲和性之前,我们先来了解一个非常常用的调度方式:nodeSelector。我们知道 label 标签是 kubernetes 中一个非常重要的概念,用户可以非常灵活的利用 label 来管理集群中的资源,比如最常见的 Service 对象通过 label 去匹配 Pod 资源,而 Pod 的调度也可以根据节点的 label 来进行调度。

我们可以通过下面的命令查看我们的 node 的 label:

☸ ➜ kubectl get nodes --show-labels
NAME                 STATUS   ROLES           AGE   VERSION   LABELS
demo-control-plane   Ready    control-plane   88d   v1.25.3   beta.kubernetes.io/arch=arm64,beta.kubernetes.io/os=linux,kubernetes.io/arch=arm64,kubernetes.io/hostname=demo-control-plane,kubernetes.io/os=linux,node-role.kubernetes.io/control-plane=,node.kubernetes.io/exclude-from-external-load-balancers=
demo-worker          Ready    <none>          88d   v1.25.3   beta.kubernetes.io/arch=arm64,beta.kubernetes.io/os=linux,kubernetes.io/arch=arm64,kubernetes.io/hostname=demo-worker,kubernetes.io/os=linux
demo-worker2         Ready    <none>          88d   v1.25.3   beta.kubernetes.io/arch=arm64,beta.kubernetes.io/os=linux,kubernetes.io/arch=arm64,kubernetes.io/hostname=demo-worker2,kubernetes.io/os=linux

现在我们先给节点 demo-worker2 增加一个com=youdianzhishi的标签,命令如下:

☸ ➜ kubectl label nodes demo-worker2 com=youdianzhishi
node/demo-worker2 labeled

我们可以通过上面的 --show-labels 参数可以查看上述标签是否生效。当节点被打上了相关标签后,在调度的时候就可以使用这些标签了,只需要在 Pod 的 spec 字段中添加 nodeSelector 字段,里面是我们需要被调度的节点的 label 标签,比如,下面的 Pod 我们要强制调度到 node2 这个节点上去,我们就可以使用 nodeSelector 来表示了:

# node-selector-demo.yaml
apiVersion: v1
kind: Pod
metadata:
  labels:
    app: busybox-pod
  name: test-busybox
spec:
  containers:
    - command:
        - sleep
        - "3600"
      image: busybox
      imagePullPolicy: Always
      name: test-busybox
  nodeSelector:
    com: youdianzhishi

然后我们可以通过 describe 命令查看调度结果:

☸ ➜ kubectl apply -f pod-selector-demo.yaml
pod/test-busybox created
☸ ➜ kubectl describe pod test-busybox
Name:             test-busybox
Namespace:        default
Priority:         0
Service Account:  default
Node:             demo-worker2/172.18.0.3
# ......
QoS Class:                   BestEffort
Node-Selectors:              com=youdianzhishi
Tolerations:                 node.kubernetes.io/not-ready:NoExecute op=Exists for 300s
                             node.kubernetes.io/unreachable:NoExecute op=Exists for 300s
Events:
  Type    Reason     Age   From               Message
  ----    ------     ----  ----               -------
  Normal  Scheduled  6s    default-scheduler  Successfully assigned default/test-busybox to demo-worker2
  Normal  Pulling    6s    kubelet            Pulling image "busybox"
  Normal  Pulled     2s    kubelet            Successfully pulled image "busybox" in 3.122234001s
  Normal  Created    2s    kubelet            Created container test-busybox
  Normal  Started    2s    kubelet            Started container test-busybox

我们可以看到 Events 下面的信息,我们的 Pod 通过默认的 default-scheduler 调度器被绑定到了 demo-worker2 节点。不过需要注意的是 nodeSelector 属于强制性的,如果我们的目标节点没有可用的资源,我们的 Pod 就会一直处于 Pending 状态。

通过上面的例子我们可以感受到 nodeSelector 的方式比较直观,但是还不够灵活,控制粒度偏大,接下来我们再和大家了解下更加灵活的方式:节点亲和性

亲和性和反亲和性调度

当 Pod 创建后,Kubernetes 的调度器会经过一系列的调度算法将 Pod 调度到最合适的节点上去,但有的时候我们也需要根据一些场景来自己控制 Pod 的调度,这个时候我们就可以用到 nodeAffinity(节点亲和性)podAffinity(pod 亲和性) 以及 podAntiAffinity(pod 反亲和性)

亲和性调度可以分成软策略硬策略两种方式:

  • 软策略就是如果现在没有满足调度要求的节点的话,Pod 就会忽略这条规则,继续完成调度过程,说白了就是满足条件最好了,没有的话也无所谓
  • 硬策略就比较强硬了,如果没有满足条件的节点的话,就不断重试直到满足条件为止,简单说就是你必须满足我的要求,不然就不干了

对于亲和性和反亲和性都有这两种规则可以设置: preferredDuringSchedulingIgnoredDuringExecutionrequiredDuringSchedulingIgnoredDuringExecution,前面的就是软策略,后面的就是硬策略。

节点亲和性

节点亲和性(nodeAffinity)主要是用来控制 Pod 要部署在哪些节点上,以及不能部署在哪些节点上的,它可以进行一些简单的逻辑组合了,不只是简单的相等匹配。

比如现在我们用一个 Deployment 来管理 8 个 Pod 副本,现在我们来控制下这些 Pod 的调度,如下例子:

# node-affinity-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: node-affinity
  labels:
    app: node-affinity
spec:
  replicas: 8
  selector:
    matchLabels:
      app: node-affinity
  template:
    metadata:
      labels:
        app: node-affinity
    spec:
      containers:
        - name: nginx
          image: nginx:1.7.9
          ports:
            - containerPort: 80
              name: nginxweb
      affinity:
        nodeAffinity:
          requiredDuringSchedulingIgnoredDuringExecution: # 硬策略
            nodeSelectorTerms:
              - matchExpressions:
                  - key: kubernetes.io/hostname
                    operator: NotIn
                    values:
                      - demo-control-plane
          preferredDuringSchedulingIgnoredDuringExecution: # 软策略
            - weight: 1
              preference:
                matchExpressions:
                  - key: com
                    operator: In
                    values:
                      - youdianzhishi

上面这个 Pod 首先是要求不能运行在 demo-control-plane 这个节点上,如果有节点满足 com=youdianzhishi 的话就优先调度到这个节点上。

由于上面 demo-worker2 节点我们打上了 com=youdianzhishi 这样的 label 标签,所以按要求会优先调度到这个节点来的,现在我们来创建这个 Pod,然后查看具体的调度情况是否满足我们的要求。

☸ ➜ kubectl apply -f node-affinty-demo.yaml
deployment.apps/node-affinity created
☸ ➜ kubectl get pods -l app=node-affinity -o wide
NAME                             READY   STATUS    RESTARTS   AGE   IP            NODE           NOMINATED NODE   READINESS GATES
node-affinity-6d858b46dd-5k5b4   1/1     Running   0          53s   10.244.2.13   demo-worker2   <none>           <none>
node-affinity-6d858b46dd-6l5hv   1/1     Running   0          53s   10.244.2.11   demo-worker2   <none>           <none>
node-affinity-6d858b46dd-brtg8   1/1     Running   0          53s   10.244.2.6    demo-worker2   <none>           <none>
node-affinity-6d858b46dd-clj2r   1/1     Running   0          53s   10.244.2.8    demo-worker2   <none>           <none>
node-affinity-6d858b46dd-jcz6b   1/1     Running   0          53s   10.244.2.12   demo-worker2   <none>           <none>
node-affinity-6d858b46dd-m8xzf   1/1     Running   0          53s   10.244.2.10   demo-worker   <none>           <none>
node-affinity-6d858b46dd-nqspb   1/1     Running   0          53s   10.244.2.7    demo-worker   <none>           <none>
node-affinity-6d858b46dd-tb9xv   1/1     Running   0          53s   10.244.2.9    demo-worker2   <none>           <none>

从结果可以看出有 6 个 Pod 被部署到了 demo-worker2 节点上,也可以看到并没有一个 Pod 被部署到 demo-control-plane 这个节点上,因为我们的硬策略就是不允许部署到该节点上,而 demo-worker2 是软策略,所以会尽量满足。这里的匹配逻辑是 label 标签的值在某个列表中,现在 Kubernetes 提供的操作符有下面的几种:

  • In:label 的值在某个列表中
  • NotIn:label 的值不在某个列表中
  • Gt:label 的值大于某个值
  • Lt:label 的值小于某个值
  • Exists:某个 label 存在
  • DoesNotExist:某个 label 不存在

但是需要注意的是如果 nodeSelectorTerms 下面有多个选项的话,满足任何一个条件就可以了;如果 matchExpressions有多个选项的话,则必须同时满足这些条件才能正常调度 Pod。

Pod 亲和性

Pod 亲和性(podAffinity)主要解决 Pod 可以和哪些 Pod 部署在同一个拓扑域中的问题(其中拓扑域用主机标签实现,可以是单个主机,也可以是多个主机组成的 clusterzone 等等),而 Pod 反亲和性主要是解决 Pod 不能和哪些 Pod 部署在同一个拓扑域中的问题,它们都是处理的 Pod 与 Pod 之间的关系,比如一个 Pod 在一个节点上了,那么我这个也得在这个节点,或者你这个 Pod 在节点上了,那么我就不想和你待在同一个节点上。

由于我们这里只有一个集群,并没有区域或者机房的概念,所以我们这里直接使用主机名来作为拓扑域,把 Pod 创建在同一个主机上面。

☸ ➜ kubectl get nodes --show-labels
NAME                 STATUS   ROLES           AGE   VERSION   LABELS
demo-control-plane   Ready    control-plane   88d   v1.25.3   beta.kubernetes.io/arch=arm64,beta.kubernetes.io/os=linux,kubernetes.io/arch=arm64,kubernetes.io/hostname=demo-control-plane,kubernetes.io/os=linux,node-role.kubernetes.io/control-plane=,node.kubernetes.io/exclude-from-external-load-balancers=
demo-worker          Ready    <none>          88d   v1.25.3   beta.kubernetes.io/arch=arm64,beta.kubernetes.io/os=linux,kubernetes.io/arch=arm64,kubernetes.io/hostname=demo-worker,kubernetes.io/os=linux
demo-worker2         Ready    <none>          88d   v1.25.3   beta.kubernetes.io/arch=arm64,beta.kubernetes.io/os=linux,com=youdianzhishi,kubernetes.io/arch=arm64,kubernetes.io/hostname=demo-worker2,kubernetes.io/os=linux

同样,还是针对上面的资源对象,我们来测试下 Pod 的亲和性:

# pod-affinity-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: pod-affinity
  labels:
    app: pod-affinity
spec:
  replicas: 3
  selector:
    matchLabels:
      app: pod-affinity
  template:
    metadata:
      labels:
        app: pod-affinity
    spec:
      containers:
        - name: nginx
          image: nginx
          ports:
            - containerPort: 80
              name: nginxweb
      affinity:
        podAffinity:
          requiredDuringSchedulingIgnoredDuringExecution: # 硬策略
            - labelSelector:
                matchExpressions:
                  - key: app
                    operator: In
                    values:
                      - busybox-pod
              topologyKey: kubernetes.io/hostname

上面这个例子中的 Pod 需要调度到某个指定的节点上,并且该节点上运行了一个带有 app=busybox-pod 标签的 Pod。我们可以查看有标签 app=busybox-pod 的 pod 列表:

☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=busybox-pod
NAME           NODE           STATUS    IP
test-busybox   demo-worker2   Running   10.244.2.14

我们看到这个 Pod 运行在了 demo-worker2 的节点上面,所以按照上面的亲和性来说,上面我们部署的 3 个 Pod 副本也应该运行在 demo-worker2 节点上:

☸ ➜ kubectl apply -f pod-affinity-demo.yaml
deployment.apps/pod-affinity created
☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=pod-affinity
NAME                           NODE           STATUS    IP
pod-affinity-76d4d7bfd-4sshw   demo-worker2   Running   10.244.2.16
pod-affinity-76d4d7bfd-w5gg8   demo-worker2   Running   10.244.2.15
pod-affinity-76d4d7bfd-zxcn2   demo-worker2   Running   10.244.2.17

如果我们把上面的 test-busybox 和 pod-affinity 这个 Deployment 都删除,然后重新创建 pod-affinity 这个资源,看看能不能正常调度呢:

☸ ➜ kubectl delete -f node-selector-demo.yaml
pod "test-busybox" deleted
☸ ➜  kubectl delete -f pod-affinity-demo.yaml
deployment.apps "pod-affinity" deleted
☸ ➜ kubectl apply -f pod-affinity-demo.yaml
deployment.apps/pod-affinity created
☸ ➜ kubectl get pods -l app=busybox-pod
No resources found in default namespace.
☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=pod-affinity
NAME                           NODE     STATUS    IP
pod-affinity-76d4d7bfd-24nnl   <none>   Pending   <none>
pod-affinity-76d4d7bfd-cbzfj   <none>   Pending   <none>
pod-affinity-76d4d7bfd-fhn7r   <none>   Pending   <none>

我们可以看到都处于 Pending 状态了,这是因为现在没有一个节点上面拥有 app=busybox-pod 这个标签的 Pod,而上面我们的调度使用的是硬策略,所以就没办法进行调度了,大家可以去尝试下重新将 test-busybox 这个 Pod 调度到其他节点上,观察下上面的 3 个副本会不会也被调度到对应的节点上去。

我们这个地方使用的是 kubernetes.io/hostname 这个拓扑域,意思就是我们当前调度的 Pod 要和目标的 Pod 处于同一个主机上面,因为要处于同一个拓扑域下面,为了说明这个问题,我们把拓扑域改成 kubernetes.io/os,同样的我们当前调度的 Pod 要和目标的 Pod 处于同一个拓扑域中,目标的 Pod 是拥有 kubernetes.io/os=linux 的标签,而我们这里所有节点都有这样的标签,这也就意味着我们所有节点都在同一个拓扑域中,所以我们这里的 Pod 可以被调度到任何一个节点,重新运行上面的 app=busybox-pod 的 Pod,然后再更新下我们这里的资源对象:

☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=busybox-pod
NAME           NODE           STATUS    IP
test-busybox   demo-worker2   Running   10.244.2.18
☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=pod-affinity
NAME                            NODE           STATUS    IP
pod-affinity-6c57c6cf75-4txfj   demo-worker2   Running   10.244.2.19
pod-affinity-6c57c6cf75-dd7wx   demo-worker    Running   10.244.1.7
pod-affinity-6c57c6cf75-hllvr   demo-worker    Running   10.244.1.8

可以看到现在是分别运行在 2 个节点下面的,因为他们都属于 kubernetes.io/os 这个拓扑域。

Pod 反亲和性

Pod 反亲和性(podAntiAffinity)则是反着来的,比如一个节点上运行了某个 Pod,那么我们的模板 Pod 则不希望被调度到这个节点上面去了。我们把上面的 podAffinity 直接改成 podAntiAffinity

# pod-antiaffinity-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: pod-antiaffinity
  labels:
    app: pod-antiaffinity
spec:
  replicas: 3
  selector:
    matchLabels:
      app: pod-antiaffinity
  template:
    metadata:
      labels:
        app: pod-antiaffinity
    spec:
      containers:
        - name: nginx
          image: nginx
          ports:
            - containerPort: 80
              name: nginxweb
      affinity:
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution: # 硬策略
            - labelSelector:
                matchExpressions:
                  - key: app
                    operator: In
                    values:
                      - busybox-pod
              topologyKey: kubernetes.io/hostname

这里的意思就是如果一个节点上面有一个 app=busybox-pod 这样的 Pod 的话,那么我们的 Pod 就别调度到这个节点上面来,上面我们把app=busybox-pod 这个 Pod 固定到了 demo-worker2 这个节点上面的,所以正常来说我们这里的 Pod 不会出现在该节点上:

☸ ➜ kubectl apply -f pod-antiaffinity-demo.yaml
deployment.apps/pod-antiaffinity created
☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=pod-antiaffinity
NAME                                NODE          STATUS    IP
pod-antiaffinity-776dd65b6d-dwz8q   demo-worker   Running   10.244.1.10
pod-antiaffinity-776dd65b6d-qpb49   demo-worker   Running   10.244.1.11
pod-antiaffinity-776dd65b6d-qthmn   demo-worker   Running   10.244.1.9

我们可以看到没有被调度到 demo-worker 节点上,因为我们这里使用的是 Pod 反亲和性。大家可以思考下,如果这里我们将拓扑域更改成 kubernetes.io/os 会怎么样呢?可以自己去测试下看看。

污点与容忍

对于 nodeAffinity 无论是硬策略还是软策略方式,都是调度 Pod 到预期节点上,而污点(Taints)恰好与之相反,如果一个节点标记为 Taints ,除非 Pod 也被标识为可以容忍污点节点,否则该 Taints 节点不会被调度 Pod。

比如用户希望把 demo-control-plane 节点保留给 Kubernetes 系统组件使用,或者把一组具有特殊资源预留给某些 Pod,则污点就很有用了,Pod 不会再被调度到 taint 标记过的节点。我们使用 kubeadm(kind)搭建的集群默认就给 master 节点添加了一个污点标记,所以我们看到我们平时的 Pod 都没有被调度到 master 上去:

☸ ➜ kubectl describe node demo-control-plane
Name:               demo-control-plane
Roles:              control-plane
Labels:             beta.kubernetes.io/arch=arm64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/arch=arm64
                    kubernetes.io/hostname=demo-control-plane
                    kubernetes.io/os=linux
                    node-role.kubernetes.io/control-plane=
                    node.kubernetes.io/exclude-from-external-load-balancers=
Annotations:        kubeadm.alpha.kubernetes.io/cri-socket: unix:///run/containerd/containerd.sock
                    node.alpha.kubernetes.io/ttl: 0
                    volumes.kubernetes.io/controller-managed-attach-detach: true
CreationTimestamp:  Thu, 01 Dec 2022 21:39:01 +0800
Taints:             node-role.kubernetes.io/control-plane:NoSchedule
Unschedulable:      false
......

我们可以使用上面的命令查看 master 节点的信息,其中有一条关于 Taints 的信息:node-role.kubernetes.io/control-plane:NoSchedule,就表示 master 节点打了一个污点的标记,其中影响的参数是 NoSchedule,表示 Pod 不会被调度到标记为 taints 的节点,除了 NoSchedule 外,还有另外两个选项:

  • PreferNoSchedule:NoSchedule 的软策略版本,表示尽量不调度到污点节点上去
  • NoExecute:该选项意味着一旦 Taint 生效,如该节点内正在运行的 Pod 没有对应容忍(Tolerate)设置,则会直接被逐出

污点 taint 标记节点的命令如下:

☸ ➜ kubectl taint nodes demo-worker2 test=demo:NoSchedule
node/demo-worker2 tainted

上面的命名将 demo-worker2 节点标记为了污点,影响策略是 NoSchedule,只会影响新的 Pod 调度,如果仍然希望某个 Pod 调度到 taint 节点上,则必须在 Spec 中做出 Toleration 定义,才能调度到该节点,比如现在我们想要将一个 Pod 调度到 master 节点:

# taint-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: taint
  labels:
    app: taint
spec:
  replicas: 3
  selector:
    matchLabels:
      app: taint
  template:
    metadata:
      labels:
        app: taint
    spec:
      containers:
        - name: nginx
          image: nginx
          ports:
            - name: http
              containerPort: 80
      tolerations:
        - key: "node-role.kubernetes.io/control-plane"
          operator: "Exists"
          effect: "NoSchedule"

由于 master 节点被标记为了污点,所以我们这里要想 Pod 能够调度到改节点去,就需要增加容忍的声明:

tolerations:
  - key: "node-role.kubernetes.io/control-plane"
    operator: "Exists"
    effect: "NoSchedule"

然后创建上面的资源,查看结果:

☸ ➜ kubectl apply -f taint-demo.yaml
deployment.apps "taint" created
☸ ➜ kubectl get pods -o custom-columns='NAME:metadata.name,NODE:spec.nodeName,STATUS:status.phase,IP:status.podIP' -l app=taint
NAME                     NODE                 STATUS    IP
taint-5cb5dcbf55-2q7dl   demo-worker          Running   10.244.1.13
taint-5cb5dcbf55-84p59   demo-control-plane   Running   10.244.0.4
taint-5cb5dcbf55-9kphs   demo-worker          Running   10.244.1.12

我们可以看到有一个 Pod 副本被调度到了 demo-control-plane 节点,这就是容忍的使用方法。

对于 tolerations 属性的写法,其中的 key、value、effect 与 Node 的 Taint 设置需保持一致, 还有以下几点说明:

  • 如果 operator 的值是 Exists,则 value 属性可省略
  • 如果 operator 的值是 Equal,则表示其 key 与 value 之间的关系是 equal(等于)
  • 如果不指定 operator 属性,则默认值为 Equal

另外,还有两个特殊值:

  • 空的 key 如果再配合 Exists 就能匹配所有的 key 与 value,也就是是能容忍所有节点的所有 Taints
  • 空的 effect 匹配所有的 effect

最后如果我们要取消节点的污点标记,可以使用下面的命令:

☸ ➜ kubectl taint nodes demo-worker2 test-
node "node2" untainted