StatefulSet 基础知识

本教程介绍了如何使用 StatefulSet 管理应用程序。它演示了如何创建、删除、扩缩和更新 StatefulSet 的 Pod。

准备工作

在开始本教程之前,您应该熟悉以下 Kubernetes 概念:

您需要有一个 Kubernetes 集群,并且 kubectl 命令行工具已配置为与您的集群通信。建议在至少有两个非控制平面主机节点的集群上运行本教程。如果您还没有集群,可以使用 minikube 创建一个,或者您可以使用以下 Kubernetes 演练场之一:

您应该配置 kubectl 使用一个使用 default 命名空间的上下文。如果您使用的是现有集群,请确保在该集群的默认命名空间中练习是安全的。理想情况下,在不运行任何实际工作负载的集群中进行练习。

阅读关于 StatefulSet 的概念页也很有用。

目标

StatefulSet 旨在用于有状态应用程序和分布式系统。然而,在 Kubernetes 上管理有状态应用程序和分布式系统是一个广泛而复杂的主题。为了演示 StatefulSet 的基本特性,而不是将前者与后者混淆,您将使用 StatefulSet 部署一个简单的 Web 应用程序。

在本教程之后,您将熟悉以下内容。

  • 如何创建 StatefulSet
  • StatefulSet 如何管理其 Pod
  • 如何删除 StatefulSet
  • 如何对 StatefulSet 进行扩缩容
  • 如何更新 StatefulSet 的 Pod

创建 StatefulSet

首先使用以下示例创建一个 StatefulSet(及其依赖的 Service)。它类似于StatefulSet 概念中介绍的示例。它创建了一个名为 nginx无头 Service,用于发布 StatefulSet web 中 Pod 的 IP 地址。

apiVersion: v1
kind: Service
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  ports:
  - port: 80
    name: web
  clusterIP: None
  selector:
    app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: web
spec:
  serviceName: "nginx"
  replicas: 2
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: registry.k8s.io/nginx-slim:0.21
        ports:
        - containerPort: 80
          name: web
        volumeMounts:
        - name: www
          mountPath: /usr/share/nginx/html
  volumeClaimTemplates:
  - metadata:
      name: www
    spec:
      accessModes: [ "ReadWriteOnce" ]
      resources:
        requests:
          storage: 1Gi

您需要使用至少两个终端窗口。在第一个终端中,使用kubectl get 命令watch StatefulSet 的 Pod 的创建过程。

# use this terminal to run commands that specify --watch
# end this watch when you are asked to start a new watch
kubectl get pods --watch -l app=nginx

在第二个终端中,使用kubectl apply 命令创建无头 Service 和 StatefulSet:

kubectl apply -f https://k8s.io/examples/application/web/web.yaml
service/nginx created
statefulset.apps/web created

上述命令创建了两个 Pod,每个 Pod 运行一个 NGINX Web 服务器。获取 nginx Service:

kubectl get service nginx
NAME      TYPE         CLUSTER-IP   EXTERNAL-IP   PORT(S)   AGE
nginx     ClusterIP    None         <none>        80/TCP    12s

...然后获取 web StatefulSet,以验证两者是否都已成功创建:

kubectl get statefulset web
NAME   READY   AGE
web    2/2     37s

按顺序创建 Pod

StatefulSet 默认以严格顺序创建其 Pod。

对于具有 n 个副本的 StatefulSet,部署 Pod 时,它们将按顺序创建,编号从 {0..n-1}。检查第一个终端中 kubectl get 命令的输出。最终,输出将类似于以下示例。

# Do not start a new watch;
# this should already be running
kubectl get pods --watch -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-0     0/1       Pending   0          0s
web-0     0/1       Pending   0         0s
web-0     0/1       ContainerCreating   0         0s
web-0     1/1       Running   0         19s
web-1     0/1       Pending   0         0s
web-1     0/1       Pending   0         0s
web-1     0/1       ContainerCreating   0         0s
web-1     1/1       Running   0         18s

注意,直到 web-0 Pod 处于 Running 状态(参见Pod 阶段)并且 Ready(参见Pod 条件中的 type 字段)后,web-1 Pod 才会启动。

在本教程的后续部分,您将练习并行启动

StatefulSet 中的 Pod

StatefulSet 中的 Pod 具有唯一的序号和稳定的网络身份。

检查 Pod 的序号

获取 StatefulSet 的 Pod:

kubectl get pods -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          1m
web-1     1/1       Running   0          1m

StatefulSet 概念中所述,StatefulSet 中的 Pod 具有粘性、唯一的身份。此身份基于 StatefulSet 控制器分配给每个 Pod 的唯一序号。
Pod 的名称格式为 <statefulset 名称>-<序号>。由于 web StatefulSet 有两个副本,它创建了两个 Pod:web-0web-1

使用稳定的网络身份

每个 Pod 都有一个基于其序号的稳定主机名。使用kubectl exec 命令在每个 Pod 中执行 hostname 命令:

for i in 0 1; do kubectl exec "web-$i" -- sh -c 'hostname'; done
web-0
web-1

使用kubectl run 命令执行一个容器,该容器提供了 dnsutils 包中的 nslookup 命令。在 Pod 的主机名上使用 nslookup,您可以检查其集群内的 DNS 地址:

kubectl run -i --tty --image busybox:1.28 dns-test --restart=Never --rm

这将启动一个新的 shell。在该新 shell 中,运行:

# Run this in the dns-test container shell
nslookup web-0.nginx

输出类似于:

Server:    10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local

Name:      web-0.nginx
Address 1: 10.244.1.6

nslookup web-1.nginx
Server:    10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local

Name:      web-1.nginx
Address 1: 10.244.2.6

(现在退出容器 shell:exit

无头服务的 CNAME 指向 SRV 记录(每个处于 Running 和 Ready 状态的 Pod 对应一条)。SRV 记录指向包含 Pod IP 地址的 A 记录条目。

在一个终端中,watch StatefulSet 的 Pod:

# Start a new watch
# End this watch when you've seen that the delete is finished
kubectl get pod --watch -l app=nginx

在第二个终端中,使用kubectl delete 命令删除 StatefulSet 中的所有 Pod:

kubectl delete pod -l app=nginx
pod "web-0" deleted
pod "web-1" deleted

等待 StatefulSet 重新启动它们,并等待两个 Pod 都转换为 Running 和 Ready 状态:

# This should already be running
kubectl get pod --watch -l app=nginx
NAME      READY     STATUS              RESTARTS   AGE
web-0     0/1       ContainerCreating   0          0s
NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          2s
web-1     0/1       Pending   0         0s
web-1     0/1       Pending   0         0s
web-1     0/1       ContainerCreating   0         0s
web-1     1/1       Running   0         34s

使用 kubectl execkubectl run 查看 Pod 的主机名和集群内 DNS 条目。首先,查看 Pod 的主机名:

for i in 0 1; do kubectl exec web-$i -- sh -c 'hostname'; done
web-0
web-1

然后,运行:

kubectl run -i --tty --image busybox:1.28 dns-test --restart=Never --rm

这将启动一个新的 shell。
在该新 shell 中,运行:

# Run this in the dns-test container shell
nslookup web-0.nginx

输出类似于:

Server:    10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local

Name:      web-0.nginx
Address 1: 10.244.1.7

nslookup web-1.nginx
Server:    10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local

Name:      web-1.nginx
Address 1: 10.244.2.8

(现在退出容器 shell:exit

Pod 的序号、主机名、SRV 记录和 A 记录名称没有改变,但与 Pod 关联的 IP 地址可能已改变。在本教程使用的集群中,它们确实改变了。这就是为什么配置其他应用程序连接到 StatefulSet 中的 Pod 时,不使用特定 Pod 的 IP 地址(通过解析其主机名连接到 Pod 是可以的)是很重要的。

发现 StatefulSet 中的特定 Pod

如果您需要查找并连接到 StatefulSet 的活跃成员,您应该查询无头 Service (nginx.default.svc.cluster.local) 的 CNAME。与 CNAME 关联的 SRV 记录将仅包含 StatefulSet 中处于 Running 和 Ready 状态的 Pod。

如果您的应用程序已经实现了测试活跃度和就绪性的连接逻辑,您可以使用 Pod 的 SRV 记录(例如 web-0.nginx.default.svc.cluster.local, web-1.nginx.default.svc.cluster.local),因为它们是稳定的,并且您的应用程序在 Pod 转换为 Running 和 Ready 状态时将能够发现它们的地址。

如果您的应用程序想找到 StatefulSet 中的任何健康 Pod,因此不需要跟踪每个特定 Pod,您也可以连接到由该 StatefulSet 中的 Pod 支持的 type: ClusterIP Service 的 IP 地址。您可以使用跟踪 StatefulSet 的 Service(在 StatefulSet 的 serviceName 中指定)或选择正确 Pod 集合的独立 Service。

写入稳定存储

获取 web-0web-1 的 PersistentVolumeClaims:

kubectl get pvc -l app=nginx

输出类似于:

NAME        STATUS    VOLUME                                     CAPACITY   ACCESSMODES   AGE
www-web-0   Bound     pvc-15c268c7-b507-11e6-932f-42010a800002   1Gi        RWO           48s
www-web-1   Bound     pvc-15c79307-b507-11e6-932f-42010a800002   1Gi        RWO           48s

StatefulSet 控制器创建了两个PersistentVolumeClaims,它们绑定到两个PersistentVolume

由于本教程中使用的集群配置为动态供给 PersistentVolume,因此 PersistentVolume 已自动创建并绑定。

默认情况下,NGINX Web 服务器从 /usr/share/nginx/html/index.html 提供索引文件。StatefulSet 的 spec 中的 volumeMounts 字段确保 /usr/share/nginx/html 目录由 PersistentVolume 支持。

将 Pod 的主机名写入其 index.html 文件,并验证 NGINX Web 服务器提供这些主机名:

for i in 0 1; do kubectl exec "web-$i" -- sh -c 'echo "$(hostname)" > /usr/share/nginx/html/index.html'; done

for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1

在一个终端中,watch StatefulSet 的 Pod:

# End this watch when you've reached the end of the section.
# At the start of "Scaling a StatefulSet" you'll start a new watch.
kubectl get pod --watch -l app=nginx

在第二个终端中,删除 StatefulSet 的所有 Pod:

kubectl delete pod -l app=nginx
pod "web-0" deleted
pod "web-1" deleted

检查第一个终端中 kubectl get 命令的输出,等待所有 Pod 都转换为 Running 和 Ready 状态。

# This should already be running
kubectl get pod --watch -l app=nginx
NAME      READY     STATUS              RESTARTS   AGE
web-0     0/1       ContainerCreating   0          0s
NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          2s
web-1     0/1       Pending   0         0s
web-1     0/1       Pending   0         0s
web-1     0/1       ContainerCreating   0         0s
web-1     1/1       Running   0         34s

验证 Web 服务器继续提供它们的主机名:

for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1

即使 web-0web-1 被重新调度,它们仍然继续提供它们的主机名,因为与其 PersistentVolumeClaims 关联的 PersistentVolume 已被重新挂载到它们的 volumeMounts。无论 web-0web-1 调度到哪个节点,它们的 PersistentVolume 都将挂载到适当的挂载点。

StatefulSet 扩缩容

StatefulSet 扩缩容是指增加或减少副本数(水平扩缩)。这是通过更新 replicas 字段来实现的。您可以使用kubectl scalekubectl patch 对 StatefulSet 进行扩缩容。

扩容

扩容意味着增加更多副本。假如您的应用程序能够将工作分布到 StatefulSet 中的 Pod 上,那么新的、更大规模的 Pod 集合可以执行更多工作。

在一个终端窗口中,watch StatefulSet 中的 Pod:

# If you already have a watch running, you can continue using that.
# Otherwise, start one.
# End this watch when there are 5 healthy Pods for the StatefulSet
kubectl get pods --watch -l app=nginx

在另一个终端窗口中,使用 kubectl scale 命令将副本数扩缩至 5:

kubectl scale sts web --replicas=5
statefulset.apps/web scaled

检查第一个终端中 kubectl get 命令的输出,等待额外的三个 Pod 都转换为 Running 和 Ready 状态。

# This should already be running
kubectl get pod --watch -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          2h
web-1     1/1       Running   0          2h
NAME      READY     STATUS    RESTARTS   AGE
web-2     0/1       Pending   0          0s
web-2     0/1       Pending   0         0s
web-2     0/1       ContainerCreating   0         0s
web-2     1/1       Running   0         19s
web-3     0/1       Pending   0         0s
web-3     0/1       Pending   0         0s
web-3     0/1       ContainerCreating   0         0s
web-3     1/1       Running   0         18s
web-4     0/1       Pending   0         0s
web-4     0/1       Pending   0         0s
web-4     0/1       ContainerCreating   0         0s
web-4     1/1       Running   0         19s

StatefulSet 控制器扩缩了副本数。如同StatefulSet 创建一样,StatefulSet 控制器根据 Pod 的序号顺序创建每个 Pod,并且在启动后续 Pod 之前,它会等待每个 Pod 的前驱 Pod 处于 Running 和 Ready 状态。

缩容

缩容意味着减少副本数。例如,您可能这样做是因为服务的流量水平已经下降,并且在当前规模下存在空闲资源。

在一个终端中,watch StatefulSet 的 Pod:

# End this watch when there are only 3 Pods for the StatefulSet
kubectl get pod --watch -l app=nginx

在另一个终端中,使用 kubectl patch 命令将 StatefulSet 缩容回三个副本:

kubectl patch sts web -p '{"spec":{"replicas":3}}'
statefulset.apps/web patched

等待 web-4web-3 转换为 Terminating 状态。

# This should already be running
kubectl get pods --watch -l app=nginx
NAME      READY     STATUS              RESTARTS   AGE
web-0     1/1       Running             0          3h
web-1     1/1       Running             0          3h
web-2     1/1       Running             0          55s
web-3     1/1       Running             0          36s
web-4     0/1       ContainerCreating   0          18s
NAME      READY     STATUS    RESTARTS   AGE
web-4     1/1       Running   0          19s
web-4     1/1       Terminating   0         24s
web-4     1/1       Terminating   0         24s
web-3     1/1       Terminating   0         42s
web-3     1/1       Terminating   0         42s

按顺序终止 Pod

控制平面一次删除一个 Pod,依据其序号的反向顺序,并在删除下一个 Pod 之前等待每个 Pod 完全关闭。

获取 StatefulSet 的 PersistentVolumeClaims:

kubectl get pvc -l app=nginx
NAME        STATUS    VOLUME                                     CAPACITY   ACCESSMODES   AGE
www-web-0   Bound     pvc-15c268c7-b507-11e6-932f-42010a800002   1Gi        RWO           13h
www-web-1   Bound     pvc-15c79307-b507-11e6-932f-42010a800002   1Gi        RWO           13h
www-web-2   Bound     pvc-e1125b27-b508-11e6-932f-42010a800002   1Gi        RWO           13h
www-web-3   Bound     pvc-e1176df6-b508-11e6-932f-42010a800002   1Gi        RWO           13h
www-web-4   Bound     pvc-e11bb5f8-b508-11e6-932f-42010a800002   1Gi        RWO           13h

仍然有五个 PersistentVolumeClaims 和五个 PersistentVolume。在探索 Pod 的稳定存储时,您看到当 StatefulSet 的 Pod 被删除时,挂载到 StatefulSet 的 Pod 上的 PersistentVolume 不会被删除。当 StatefulSet 缩容导致 Pod 删除时,这仍然适用。

更新 StatefulSet

StatefulSet 控制器支持自动化更新。使用的策略由 StatefulSet API 对象的 spec.updateStrategy 字段决定。此功能可用于升级 StatefulSet 中 Pod 的容器镜像、资源请求和/或限制、标签以及注解。

有两种有效的更新策略:RollingUpdate(默认)和 OnDelete

滚动更新

RollingUpdate 更新策略将以反向序号顺序更新 StatefulSet 中的所有 Pod,同时遵守 StatefulSet 的保证。

您可以通过指定 .spec.updateStrategy.rollingUpdate.partition,将使用 RollingUpdate 策略的 StatefulSet 更新分成多个 分区。您将在本教程的后续部分练习这一点。

首先,尝试一个简单的滚动更新。

在一个终端窗口中,再次更新 web StatefulSet 配置,更改容器镜像:

kubectl patch statefulset web --type='json' -p='[{"op": "replace", "path": "/spec/template/spec/containers/0/image", "value":"registry.k8s.io/nginx-slim:0.24"}]'
statefulset.apps/web patched

在另一个终端中,watch StatefulSet 中的 Pod:

# End this watch when the rollout is complete
#
# If you're not sure, leave it running one more minute
kubectl get pod -l app=nginx --watch

输出类似于:

NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          7m
web-1     1/1       Running   0          7m
web-2     1/1       Running   0          8m
web-2     1/1       Terminating   0         8m
web-2     1/1       Terminating   0         8m
web-2     0/1       Terminating   0         8m
web-2     0/1       Terminating   0         8m
web-2     0/1       Terminating   0         8m
web-2     0/1       Terminating   0         8m
web-2     0/1       Pending   0         0s
web-2     0/1       Pending   0         0s
web-2     0/1       ContainerCreating   0         0s
web-2     1/1       Running   0         19s
web-1     1/1       Terminating   0         8m
web-1     0/1       Terminating   0         8m
web-1     0/1       Terminating   0         8m
web-1     0/1       Terminating   0         8m
web-1     0/1       Pending   0         0s
web-1     0/1       Pending   0         0s
web-1     0/1       ContainerCreating   0         0s
web-1     1/1       Running   0         6s
web-0     1/1       Terminating   0         7m
web-0     1/1       Terminating   0         7m
web-0     0/1       Terminating   0         7m
web-0     0/1       Terminating   0         7m
web-0     0/1       Terminating   0         7m
web-0     0/1       Terminating   0         7m
web-0     0/1       Pending   0         0s
web-0     0/1       Pending   0         0s
web-0     0/1       ContainerCreating   0         0s
web-0     1/1       Running   0         10s

StatefulSet 中的 Pod 按反向序号顺序更新。StatefulSet 控制器终止每个 Pod,并在更新下一个 Pod 之前等待其转换为 Running 和 Ready 状态。注意,即使 StatefulSet 控制器直到其序号后继者处于 Running 和 Ready 状态后才会继续更新下一个 Pod,它也会在更新过程中将任何失败的 Pod 恢复到该 Pod 的现有版本。

已经收到更新的 Pod 将恢复到更新后的版本,而尚未收到更新的 Pod 将恢复到之前的版本。通过这种方式,控制器尝试在出现间歇性故障时继续保持应用程序健康和更新一致。

获取 Pod 以查看其容器镜像:

for p in 0 1 2; do kubectl get pod "web-$p" --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'; echo; done
registry.k8s.io/nginx-slim:0.24
registry.k8s.io/nginx-slim:0.24
registry.k8s.io/nginx-slim:0.24

StatefulSet 中的所有 Pod 现在都运行之前的容器镜像。

暂存更新

您可以通过指定 .spec.updateStrategy.rollingUpdate.partition,将使用 RollingUpdate 策略的 StatefulSet 更新分成多个 分区

要了解更多背景信息,您可以阅读 StatefulSet 概念页中的分区滚动更新

您可以使用 .spec.updateStrategy.rollingUpdate 中的 partition 字段暂存 StatefulSet 的更新。对于此更新,您将在更改 StatefulSet 的 Pod 模板时保持 StatefulSet 中现有 Pod 不变。然后您(或者,在教程之外,一些外部自动化)可以触发该准备好的更新。

首先,更新 web StatefulSet 配置,向 updateStrategy 字段添加 partition:

# The value of "partition" determines which ordinals a change applies to
# Make sure to use a number bigger than the last ordinal for the
# StatefulSet
kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":3}}}}'
statefulset.apps/web patched

再次更新 StatefulSet 配置,更改此 StatefulSet 使用的容器镜像:

kubectl patch statefulset web --type='json' -p='[{"op": "replace", "path": "/spec/template/spec/containers/0/image", "value":"registry.k8s.io/nginx-slim:0.21"}]'
statefulset.apps/web patched

删除 StatefulSet 中的一个 Pod:

kubectl delete pod web-2
pod "web-2" deleted

等待替换的 web-2 Pod 处于 Running 和 Ready 状态:

# End the watch when you see that web-2 is healthy
kubectl get pod -l app=nginx --watch
NAME      READY     STATUS              RESTARTS   AGE
web-0     1/1       Running             0          4m
web-1     1/1       Running             0          4m
web-2     0/1       ContainerCreating   0          11s
web-2     1/1       Running   0         18s

获取 Pod 的容器镜像:

kubectl get pod web-2 --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'
registry.k8s.io/nginx-slim:0.24

注意,即使更新策略是 RollingUpdate,StatefulSet 还是使用原始容器镜像恢复了 Pod。这是因为 Pod 的序号小于 updateStrategy 指定的 partition 值。

进行金丝雀发布

现在您将尝试对该暂存的更改进行金丝雀发布

您可以通过递减上面指定的 partition 值来发布金丝雀版本(用于测试修改后的模板)。

更新 StatefulSet 配置以递减 partition 值:

# The value of "partition" should match the highest existing ordinal for
# the StatefulSet
kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":2}}}}'
statefulset.apps/web patched

控制平面触发替换 web-2(通过优雅地删除,并在删除完成后创建一个新的 Pod 来实现)。等待新的 web-2 Pod 处于 Running 和 Ready 状态。

# This should already be running
kubectl get pod -l app=nginx --watch
NAME      READY     STATUS              RESTARTS   AGE
web-0     1/1       Running             0          4m
web-1     1/1       Running             0          4m
web-2     0/1       ContainerCreating   0          11s
web-2     1/1       Running   0         18s

获取 Pod 的容器:

kubectl get pod web-2 --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'
registry.k8s.io/nginx-slim:0.21

当您更改 partition 时,StatefulSet 控制器自动更新了 web-2 Pod,因为该 Pod 的序号大于或等于 partition 值。

删除 web-1 Pod:

kubectl delete pod web-1
pod "web-1" deleted

等待 web-1 Pod 处于 Running 和 Ready 状态。

# This should already be running
kubectl get pod -l app=nginx --watch

输出类似于:

NAME      READY     STATUS        RESTARTS   AGE
web-0     1/1       Running       0          6m
web-1     0/1       Terminating   0          6m
web-2     1/1       Running       0          2m
web-1     0/1       Terminating   0         6m
web-1     0/1       Terminating   0         6m
web-1     0/1       Terminating   0         6m
web-1     0/1       Pending   0         0s
web-1     0/1       Pending   0         0s
web-1     0/1       ContainerCreating   0         0s
web-1     1/1       Running   0         18s

获取 web-1 Pod 的容器镜像:

kubectl get pod web-1 --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'
registry.k8s.io/nginx-slim:0.24

web-1 恢复到了其原始配置,因为该 Pod 的序号小于 partition 值。指定 partition 后,当 StatefulSet 的 .spec.template 被更新时,所有序号大于或等于 partition 的 Pod 都将被更新。如果序号小于 partition 的 Pod 被删除或以其他方式终止,它将恢复到其原始配置。

分阶段发布

您可以使用分区滚动更新执行分阶段发布(例如,线性、几何或指数级发布),其方式类似于您执行金丝雀发布。要执行分阶段发布,请将 partition 设置为您希望控制器暂停更新的序号。

当前 partition 设置为 2。将 partition 设置为 0

kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":0}}}}'
statefulset.apps/web patched

等待 StatefulSet 中的所有 Pod 都变为 Running 和 Ready 状态。

# This should already be running
kubectl get pod -l app=nginx --watch

输出类似于:

NAME      READY     STATUS              RESTARTS   AGE
web-0     1/1       Running             0          3m
web-1     0/1       ContainerCreating   0          11s
web-2     1/1       Running             0          2m
web-1     1/1       Running   0         18s
web-0     1/1       Terminating   0         3m
web-0     1/1       Terminating   0         3m
web-0     0/1       Terminating   0         3m
web-0     0/1       Terminating   0         3m
web-0     0/1       Terminating   0         3m
web-0     0/1       Terminating   0         3m
web-0     0/1       Pending   0         0s
web-0     0/1       Pending   0         0s
web-0     0/1       ContainerCreating   0         0s
web-0     1/1       Running   0         3s

获取 StatefulSet 中 Pod 的容器镜像详情:

for p in 0 1 2; do kubectl get pod "web-$p" --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'; echo; done
registry.k8s.io/nginx-slim:0.21
registry.k8s.io/nginx-slim:0.21
registry.k8s.io/nginx-slim:0.21

通过将 partition 移动到 0,您允许 StatefulSet 继续更新过程。

OnDelete

您可以通过将 .spec.template.updateStrategy.type 设置为 OnDelete 为 StatefulSet 选择此更新策略。

更新 web StatefulSet 配置以使用 OnDelete 更新策略:

kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"OnDelete", "rollingUpdate": null}}}'
statefulset.apps/web patched

当您选择此更新策略时,StatefulSet 控制器不会在修改 StatefulSet 的 .spec.template 字段时自动更新 Pod。您需要自行管理发布过程——可以手动,或使用独立的自动化工具。

删除 StatefulSet

StatefulSet 支持非级联删除和级联删除。在非级联删除中,删除 StatefulSet 时,其 Pod 不会被删除。在级联删除中,StatefulSet 及其 Pod 都将被删除。

阅读在集群中使用级联删除,了解级联删除的总体信息。

非级联删除

在一个终端窗口中,watch StatefulSet 中的 Pod。

# End this watch when there are no Pods for the StatefulSet
kubectl get pods --watch -l app=nginx

使用kubectl delete 命令删除 StatefulSet。确保为命令提供 --cascade=orphan 参数。该参数告诉 Kubernetes 仅删除 StatefulSet,而删除其任何 Pod。

kubectl delete statefulset web --cascade=orphan
statefulset.apps "web" deleted

获取 Pod,查看其状态:

kubectl get pods -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          6m
web-1     1/1       Running   0          7m
web-2     1/1       Running   0          5m

即使 web 已被删除,所有 Pod 仍然处于 Running 和 Ready 状态。删除 web-0

kubectl delete pod web-0
pod "web-0" deleted

获取 StatefulSet 的 Pod:

kubectl get pods -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-1     1/1       Running   0          10m
web-2     1/1       Running   0          7m

由于 web StatefulSet 已被删除,web-0 未被重新启动。

在一个终端中,watch StatefulSet 的 Pod。

# Leave this watch running until the next time you start a watch
kubectl get pods --watch -l app=nginx

在第二个终端中,重新创建 StatefulSet。注意,除非您删除了 nginx Service(这是您不应该做的),否则您会看到一个指示 Service 已存在的错误。

kubectl apply -f https://k8s.io/examples/application/web/web.yaml
statefulset.apps/web created
service/nginx unchanged

忽略该错误。它仅指示尝试创建 nginx 无头 Service,即使该 Service 已存在。

检查在第一个终端中运行的 kubectl get 命令的输出。

# This should already be running
kubectl get pods --watch -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-1     1/1       Running   0          16m
web-2     1/1       Running   0          2m
NAME      READY     STATUS    RESTARTS   AGE
web-0     0/1       Pending   0          0s
web-0     0/1       Pending   0         0s
web-0     0/1       ContainerCreating   0         0s
web-0     1/1       Running   0         18s
web-2     1/1       Terminating   0         3m
web-2     0/1       Terminating   0         3m
web-2     0/1       Terminating   0         3m
web-2     0/1       Terminating   0         3m

web StatefulSet 被重新创建时,它首先重新启动了 web-0。由于 web-1 已经处于 Running 和 Ready 状态,当 web-0 转换为 Running 和 Ready 状态时,它采纳了此 Pod。由于您重新创建 StatefulSet 时 replicas 等于 2,一旦 web-0 被重新创建,并且一旦 web-1 已被确定为已经处于 Running 和 Ready 状态,web-2 就被终止了。

现在再看看 Pod Web 服务器提供的 index.html 文件内容:

for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1

即使您同时删除了 StatefulSet 和 web-0 Pod,它仍然提供最初输入到其 index.html 文件中的主机名。这是因为 StatefulSet 从不删除与 Pod 关联的 PersistentVolume。当您重新创建 StatefulSet 并重新启动 web-0 时,其原始 PersistentVolume 被重新挂载了。

级联删除

在一个终端窗口中,watch StatefulSet 中的 Pod。

# Leave this running until the next page section
kubectl get pods --watch -l app=nginx

在另一个终端中,再次删除 StatefulSet。这次,省略 --cascade=orphan 参数。

kubectl delete statefulset web
statefulset.apps "web" deleted

检查第一个终端中运行的 kubectl get 命令的输出,等待所有 Pod 都转换为 Terminating 状态。

# This should already be running
kubectl get pods --watch -l app=nginx
NAME      READY     STATUS    RESTARTS   AGE
web-0     1/1       Running   0          11m
web-1     1/1       Running   0          27m
NAME      READY     STATUS        RESTARTS   AGE
web-0     1/1       Terminating   0          12m
web-1     1/1       Terminating   0         29m
web-0     0/1       Terminating   0         12m
web-0     0/1       Terminating   0         12m
web-0     0/1       Terminating   0         12m
web-1     0/1       Terminating   0         29m
web-1     0/1       Terminating   0         29m
web-1     0/1       Terminating   0         29m

如您在缩容部分中看到的,Pod 一次终止一个,依照其序号的反向顺序。在终止一个 Pod 之前,StatefulSet 控制器会等待该 Pod 的后继者完全终止。

kubectl delete service nginx
service "nginx" deleted

再一次重新创建 StatefulSet 和无头 Service:

kubectl apply -f https://k8s.io/examples/application/web/web.yaml
service/nginx created
statefulset.apps/web created

当 StatefulSet 的所有 Pod 都转换为 Running 和 Ready 状态时,检索其 index.html 文件内容:

for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1

即使您完全删除了 StatefulSet 及其所有 Pod,Pod 也会被重新创建并挂载其 PersistentVolume,并且 web-0web-1 继续提供其主机名。

最后,删除 nginx Service:

kubectl delete service nginx
service "nginx" deleted

...以及 web StatefulSet:

kubectl delete statefulset web
statefulset "web" deleted

Pod 管理策略

对于一些分布式系统,StatefulSet 的排序保证是不必要和/或不需要的。这些系统仅需要唯一性和身份。

您可以指定Pod 管理策略以避免这种严格排序;可以选择 OrderedReady(默认)或 Parallel

OrderedReady Pod 管理

OrderedReady Pod 管理是 StatefulSet 的默认设置。它告诉 StatefulSet 控制器遵循如上所示的排序保证。

当您的应用程序要求或期望更改(例如发布新版本的应用程序)按照 StatefulSet 提供的序号(Pod 编号)的严格顺序发生时,请使用此选项。换句话说,如果您有 Pod app-0app-1app-2,Kubernetes 将首先更新 app-0 并检查它。一旦检查通过,Kubernetes 将更新 app-1,最后更新 app-2

如果您再添加两个 Pod,Kubernetes 将设置 app-3 并在其变为健康后,再部署 app-4

因为这是默认设置,您已经练习过使用它了。

Parallel Pod 管理

另一个选项,Parallel Pod 管理,告诉 StatefulSet 控制器并行启动或终止所有 Pod,并且在启动或终止另一个 Pod 之前,不等待 Pod 变为 RunningReady 状态或完全终止。

Parallel Pod 管理选项仅影响扩缩容操作的行为。更新不受影响;Kubernetes 仍然按顺序发布更改。对于本教程,应用程序非常简单:一个 Web 服务器,它会告诉您其主机名(因为这是一个 StatefulSet,每个 Pod 的主机名都不同且可预测)。

apiVersion: v1
kind: Service
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  ports:
  - port: 80
    name: web
  clusterIP: None
  selector:
    app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: web
spec:
  serviceName: "nginx"
  podManagementPolicy: "Parallel"
  replicas: 2
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: registry.k8s.io/nginx-slim:0.24
        ports:
        - containerPort: 80
          name: web
        volumeMounts:
        - name: www
          mountPath: /usr/share/nginx/html
  volumeClaimTemplates:
  - metadata:
      name: www
    spec:
      accessModes: [ "ReadWriteOnce" ]
      resources:
        requests:
          storage: 1Gi

此清单文件与您上面下载的文件相同,只是 web StatefulSet 的 .spec.podManagementPolicy 设置为 Parallel

在一个终端中,watch StatefulSet 中的 Pod。

# Leave this watch running until the end of the section
kubectl get pod -l app=nginx --watch

在另一个终端中,重新配置 StatefulSet 使用 Parallel Pod 管理策略:

kubectl apply -f https://k8s.io/examples/application/web/web-parallel.yaml
service/nginx updated
statefulset.apps/web updated

保持运行 watch 命令的终端打开。在另一个终端窗口中,对 StatefulSet 进行扩缩容:

kubectl scale statefulset/web --replicas=5
statefulset.apps/web scaled

检查运行 kubectl get 命令的终端的输出。它可能看起来像:

web-3     0/1       Pending   0         0s
web-3     0/1       Pending   0         0s
web-3     0/1       Pending   0         7s
web-3     0/1       ContainerCreating   0         7s
web-2     0/1       Pending   0         0s
web-4     0/1       Pending   0         0s
web-2     1/1       Running   0         8s
web-4     0/1       ContainerCreating   0         4s
web-3     1/1       Running   0         26s
web-4     1/1       Running   0         2s

StatefulSet 启动了三个新的 Pod,并且在启动第二个和第三个 Pod 之前,它没有等待第一个变为 Running 和 Ready 状态。

如果你的工作负载具有有状态元素,或者需要 Pod 能够通过可预测的命名相互识别,特别是如果你有时需要快速提供大量额外容量,那么这种方法非常有用。如果本教程中简单的 Web 服务突然每分钟收到额外的 1,000,000 个请求,那么你会希望运行更多的 Pods - 但你也不想等待每个新 Pod 启动。并行启动额外的 Pods 可以缩短请求额外容量到可用之间的时间。

清理

你应该打开两个终端,准备运行 kubectl 命令作为清理的一部分。

kubectl delete sts web
# sts is an abbreviation for statefulset

你可以通过 kubectl get 来查看正在被删除的那些 Pods。

# end the watch when you've seen what you need to
kubectl get pod -l app=nginx --watch
web-3     1/1       Terminating   0         9m
web-2     1/1       Terminating   0         9m
web-3     1/1       Terminating   0         9m
web-2     1/1       Terminating   0         9m
web-1     1/1       Terminating   0         44m
web-0     1/1       Terminating   0         44m
web-0     0/1       Terminating   0         44m
web-3     0/1       Terminating   0         9m
web-2     0/1       Terminating   0         9m
web-1     0/1       Terminating   0         44m
web-0     0/1       Terminating   0         44m
web-2     0/1       Terminating   0         9m
web-2     0/1       Terminating   0         9m
web-2     0/1       Terminating   0         9m
web-1     0/1       Terminating   0         44m
web-1     0/1       Terminating   0         44m
web-1     0/1       Terminating   0         44m
web-0     0/1       Terminating   0         44m
web-0     0/1       Terminating   0         44m
web-0     0/1       Terminating   0         44m
web-3     0/1       Terminating   0         9m
web-3     0/1       Terminating   0         9m
web-3     0/1       Terminating   0         9m

在删除过程中,StatefulSet 会并发地移除所有 Pods;它不会等到某个 Pod 的序号后继者终止后才删除该 Pod。

关闭运行 kubectl get 命令的终端,并删除 nginx Service

kubectl delete svc nginx

删除本教程中使用的 PersistentVolumes 的持久化存储介质。

kubectl get pvc
NAME        STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
www-web-0   Bound    pvc-2bf00408-d366-4a12-bad0-1869c65d0bee   1Gi        RWO            standard       25m
www-web-1   Bound    pvc-ba3bfe9c-413e-4b95-a2c0-3ea8a54dbab4   1Gi        RWO            standard       24m
www-web-2   Bound    pvc-cba6cfa6-3a47-486b-a138-db5930207eaf   1Gi        RWO            standard       15m
www-web-3   Bound    pvc-0c04d7f0-787a-4977-8da3-d9d3a6d8d752   1Gi        RWO            standard       15m
www-web-4   Bound    pvc-b2c73489-e70b-4a4e-9ec1-9eab439aa43e   1Gi        RWO            standard       14m
kubectl get pv
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM               STORAGECLASS   REASON   AGE
pvc-0c04d7f0-787a-4977-8da3-d9d3a6d8d752   1Gi        RWO            Delete           Bound    default/www-web-3   standard                15m
pvc-2bf00408-d366-4a12-bad0-1869c65d0bee   1Gi        RWO            Delete           Bound    default/www-web-0   standard                25m
pvc-b2c73489-e70b-4a4e-9ec1-9eab439aa43e   1Gi        RWO            Delete           Bound    default/www-web-4   standard                14m
pvc-ba3bfe9c-413e-4b95-a2c0-3ea8a54dbab4   1Gi        RWO            Delete           Bound    default/www-web-1   standard                24m
pvc-cba6cfa6-3a47-486b-a138-db5930207eaf   1Gi        RWO            Delete           Bound    default/www-web-2   standard                15m
kubectl delete pvc www-web-0 www-web-1 www-web-2 www-web-3 www-web-4
persistentvolumeclaim "www-web-0" deleted
persistentvolumeclaim "www-web-1" deleted
persistentvolumeclaim "www-web-2" deleted
persistentvolumeclaim "www-web-3" deleted
persistentvolumeclaim "www-web-4" deleted
kubectl get pvc
No resources found in default namespace.