StatefulSet 基础知识
本教程介绍了如何使用 StatefulSet 管理应用程序。它演示了如何创建、删除、扩缩和更新 StatefulSet 的 Pod。
准备工作
在开始本教程之前,您应该熟悉以下 Kubernetes 概念:
您需要有一个 Kubernetes 集群,并且 kubectl 命令行工具已配置为与您的集群通信。建议在至少有两个非控制平面主机节点的集群上运行本教程。如果您还没有集群,可以使用 minikube 创建一个,或者您可以使用以下 Kubernetes 演练场之一:
您应该配置 kubectl
使用一个使用 default
命名空间的上下文。如果您使用的是现有集群,请确保在该集群的默认命名空间中练习是安全的。理想情况下,在不运行任何实际工作负载的集群中进行练习。
阅读关于 StatefulSet 的概念页也很有用。
注意
本教程假定您的集群已配置为动态供给 PersistentVolume。您还需要有一个默认 StorageClass。如果您的集群未配置为动态供给存储,则必须在本教程开始前手动供给两个 1 GiB 的卷,并设置您的集群,以便这些 PersistentVolume 映射到 StatefulSet 定义的 PersistentVolumeClaim 模板。目标
StatefulSet 旨在用于有状态应用程序和分布式系统。然而,在 Kubernetes 上管理有状态应用程序和分布式系统是一个广泛而复杂的主题。为了演示 StatefulSet 的基本特性,而不是将前者与后者混淆,您将使用 StatefulSet 部署一个简单的 Web 应用程序。
在本教程之后,您将熟悉以下内容。
- 如何创建 StatefulSet
- StatefulSet 如何管理其 Pod
- 如何删除 StatefulSet
- 如何对 StatefulSet 进行扩缩容
- 如何更新 StatefulSet 的 Pod
创建 StatefulSet
首先使用以下示例创建一个 StatefulSet(及其依赖的 Service)。它类似于StatefulSet 概念中介绍的示例。它创建了一个名为 nginx
的无头 Service,用于发布 StatefulSet web
中 Pod 的 IP 地址。
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
serviceName: "nginx"
replicas: 2
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: registry.k8s.io/nginx-slim:0.21
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: [ "ReadWriteOnce" ]
resources:
requests:
storage: 1Gi
您需要使用至少两个终端窗口。在第一个终端中,使用kubectl get
命令watch StatefulSet 的 Pod 的创建过程。
# use this terminal to run commands that specify --watch
# end this watch when you are asked to start a new watch
kubectl get pods --watch -l app=nginx
在第二个终端中,使用kubectl apply
命令创建无头 Service 和 StatefulSet:
kubectl apply -f https://k8s.io/examples/application/web/web.yaml
service/nginx created
statefulset.apps/web created
上述命令创建了两个 Pod,每个 Pod 运行一个 NGINX Web 服务器。获取 nginx
Service:
kubectl get service nginx
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
nginx ClusterIP None <none> 80/TCP 12s
...然后获取 web
StatefulSet,以验证两者是否都已成功创建:
kubectl get statefulset web
NAME READY AGE
web 2/2 37s
按顺序创建 Pod
StatefulSet 默认以严格顺序创建其 Pod。
对于具有 n 个副本的 StatefulSet,部署 Pod 时,它们将按顺序创建,编号从 {0..n-1}。检查第一个终端中 kubectl get
命令的输出。最终,输出将类似于以下示例。
# Do not start a new watch;
# this should already be running
kubectl get pods --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 0/1 Pending 0 0s
web-0 0/1 Pending 0 0s
web-0 0/1 ContainerCreating 0 0s
web-0 1/1 Running 0 19s
web-1 0/1 Pending 0 0s
web-1 0/1 Pending 0 0s
web-1 0/1 ContainerCreating 0 0s
web-1 1/1 Running 0 18s
注意,直到 web-0
Pod 处于 Running 状态(参见Pod 阶段)并且 Ready(参见Pod 条件中的 type
字段)后,web-1
Pod 才会启动。
在本教程的后续部分,您将练习并行启动。
注意
要配置分配给 StatefulSet 中每个 Pod 的整数序号,请参阅起始序号。StatefulSet 中的 Pod
StatefulSet 中的 Pod 具有唯一的序号和稳定的网络身份。
检查 Pod 的序号
获取 StatefulSet 的 Pod:
kubectl get pods -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 1m
web-1 1/1 Running 0 1m
如StatefulSet 概念中所述,StatefulSet 中的 Pod 具有粘性、唯一的身份。此身份基于 StatefulSet 控制器分配给每个 Pod 的唯一序号。
Pod 的名称格式为 <statefulset 名称>-<序号>
。由于 web
StatefulSet 有两个副本,它创建了两个 Pod:web-0
和 web-1
。
使用稳定的网络身份
每个 Pod 都有一个基于其序号的稳定主机名。使用kubectl exec
命令在每个 Pod 中执行 hostname
命令:
for i in 0 1; do kubectl exec "web-$i" -- sh -c 'hostname'; done
web-0
web-1
使用kubectl run
命令执行一个容器,该容器提供了 dnsutils
包中的 nslookup
命令。在 Pod 的主机名上使用 nslookup
,您可以检查其集群内的 DNS 地址:
kubectl run -i --tty --image busybox:1.28 dns-test --restart=Never --rm
这将启动一个新的 shell。在该新 shell 中,运行:
# Run this in the dns-test container shell
nslookup web-0.nginx
输出类似于:
Server: 10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local
Name: web-0.nginx
Address 1: 10.244.1.6
nslookup web-1.nginx
Server: 10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local
Name: web-1.nginx
Address 1: 10.244.2.6
(现在退出容器 shell:exit
)
无头服务的 CNAME 指向 SRV 记录(每个处于 Running 和 Ready 状态的 Pod 对应一条)。SRV 记录指向包含 Pod IP 地址的 A 记录条目。
在一个终端中,watch StatefulSet 的 Pod:
# Start a new watch
# End this watch when you've seen that the delete is finished
kubectl get pod --watch -l app=nginx
在第二个终端中,使用kubectl delete
命令删除 StatefulSet 中的所有 Pod:
kubectl delete pod -l app=nginx
pod "web-0" deleted
pod "web-1" deleted
等待 StatefulSet 重新启动它们,并等待两个 Pod 都转换为 Running 和 Ready 状态:
# This should already be running
kubectl get pod --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 0/1 ContainerCreating 0 0s
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 2s
web-1 0/1 Pending 0 0s
web-1 0/1 Pending 0 0s
web-1 0/1 ContainerCreating 0 0s
web-1 1/1 Running 0 34s
使用 kubectl exec
和 kubectl run
查看 Pod 的主机名和集群内 DNS 条目。首先,查看 Pod 的主机名:
for i in 0 1; do kubectl exec web-$i -- sh -c 'hostname'; done
web-0
web-1
然后,运行:
kubectl run -i --tty --image busybox:1.28 dns-test --restart=Never --rm
这将启动一个新的 shell。
在该新 shell 中,运行:
# Run this in the dns-test container shell
nslookup web-0.nginx
输出类似于:
Server: 10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local
Name: web-0.nginx
Address 1: 10.244.1.7
nslookup web-1.nginx
Server: 10.0.0.10
Address 1: 10.0.0.10 kube-dns.kube-system.svc.cluster.local
Name: web-1.nginx
Address 1: 10.244.2.8
(现在退出容器 shell:exit
)
Pod 的序号、主机名、SRV 记录和 A 记录名称没有改变,但与 Pod 关联的 IP 地址可能已改变。在本教程使用的集群中,它们确实改变了。这就是为什么配置其他应用程序连接到 StatefulSet 中的 Pod 时,不使用特定 Pod 的 IP 地址(通过解析其主机名连接到 Pod 是可以的)是很重要的。
发现 StatefulSet 中的特定 Pod
如果您需要查找并连接到 StatefulSet 的活跃成员,您应该查询无头 Service (nginx.default.svc.cluster.local
) 的 CNAME。与 CNAME 关联的 SRV 记录将仅包含 StatefulSet 中处于 Running 和 Ready 状态的 Pod。
如果您的应用程序已经实现了测试活跃度和就绪性的连接逻辑,您可以使用 Pod 的 SRV 记录(例如 web-0.nginx.default.svc.cluster.local
, web-1.nginx.default.svc.cluster.local
),因为它们是稳定的,并且您的应用程序在 Pod 转换为 Running 和 Ready 状态时将能够发现它们的地址。
如果您的应用程序想找到 StatefulSet 中的任何健康 Pod,因此不需要跟踪每个特定 Pod,您也可以连接到由该 StatefulSet 中的 Pod 支持的 type: ClusterIP
Service 的 IP 地址。您可以使用跟踪 StatefulSet 的 Service(在 StatefulSet 的 serviceName
中指定)或选择正确 Pod 集合的独立 Service。
写入稳定存储
获取 web-0
和 web-1
的 PersistentVolumeClaims:
kubectl get pvc -l app=nginx
输出类似于:
NAME STATUS VOLUME CAPACITY ACCESSMODES AGE
www-web-0 Bound pvc-15c268c7-b507-11e6-932f-42010a800002 1Gi RWO 48s
www-web-1 Bound pvc-15c79307-b507-11e6-932f-42010a800002 1Gi RWO 48s
StatefulSet 控制器创建了两个PersistentVolumeClaims,它们绑定到两个PersistentVolume。
由于本教程中使用的集群配置为动态供给 PersistentVolume,因此 PersistentVolume 已自动创建并绑定。
默认情况下,NGINX Web 服务器从 /usr/share/nginx/html/index.html
提供索引文件。StatefulSet 的 spec
中的 volumeMounts
字段确保 /usr/share/nginx/html
目录由 PersistentVolume 支持。
将 Pod 的主机名写入其 index.html
文件,并验证 NGINX Web 服务器提供这些主机名:
for i in 0 1; do kubectl exec "web-$i" -- sh -c 'echo "$(hostname)" > /usr/share/nginx/html/index.html'; done
for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1
注意
如果您在上述 curl 命令中看到 403 Forbidden 响应,则需要通过运行以下命令修复 volumeMounts
挂载的目录权限(由于使用 hostPath 卷时的一个 Bug):
for i in 0 1; do kubectl exec web-$i -- chmod 755 /usr/share/nginx/html; done
在重试上述 curl
命令之前。
在一个终端中,watch StatefulSet 的 Pod:
# End this watch when you've reached the end of the section.
# At the start of "Scaling a StatefulSet" you'll start a new watch.
kubectl get pod --watch -l app=nginx
在第二个终端中,删除 StatefulSet 的所有 Pod:
kubectl delete pod -l app=nginx
pod "web-0" deleted
pod "web-1" deleted
检查第一个终端中 kubectl get
命令的输出,等待所有 Pod 都转换为 Running 和 Ready 状态。
# This should already be running
kubectl get pod --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 0/1 ContainerCreating 0 0s
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 2s
web-1 0/1 Pending 0 0s
web-1 0/1 Pending 0 0s
web-1 0/1 ContainerCreating 0 0s
web-1 1/1 Running 0 34s
验证 Web 服务器继续提供它们的主机名:
for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1
即使 web-0
和 web-1
被重新调度,它们仍然继续提供它们的主机名,因为与其 PersistentVolumeClaims 关联的 PersistentVolume 已被重新挂载到它们的 volumeMounts
。无论 web-0
和 web-1
调度到哪个节点,它们的 PersistentVolume 都将挂载到适当的挂载点。
StatefulSet 扩缩容
StatefulSet 扩缩容是指增加或减少副本数(水平扩缩)。这是通过更新 replicas
字段来实现的。您可以使用kubectl scale
或 kubectl patch
对 StatefulSet 进行扩缩容。
扩容
扩容意味着增加更多副本。假如您的应用程序能够将工作分布到 StatefulSet 中的 Pod 上,那么新的、更大规模的 Pod 集合可以执行更多工作。
在一个终端窗口中,watch StatefulSet 中的 Pod:
# If you already have a watch running, you can continue using that.
# Otherwise, start one.
# End this watch when there are 5 healthy Pods for the StatefulSet
kubectl get pods --watch -l app=nginx
在另一个终端窗口中,使用 kubectl scale
命令将副本数扩缩至 5:
kubectl scale sts web --replicas=5
statefulset.apps/web scaled
检查第一个终端中 kubectl get
命令的输出,等待额外的三个 Pod 都转换为 Running 和 Ready 状态。
# This should already be running
kubectl get pod --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 2h
web-1 1/1 Running 0 2h
NAME READY STATUS RESTARTS AGE
web-2 0/1 Pending 0 0s
web-2 0/1 Pending 0 0s
web-2 0/1 ContainerCreating 0 0s
web-2 1/1 Running 0 19s
web-3 0/1 Pending 0 0s
web-3 0/1 Pending 0 0s
web-3 0/1 ContainerCreating 0 0s
web-3 1/1 Running 0 18s
web-4 0/1 Pending 0 0s
web-4 0/1 Pending 0 0s
web-4 0/1 ContainerCreating 0 0s
web-4 1/1 Running 0 19s
StatefulSet 控制器扩缩了副本数。如同StatefulSet 创建一样,StatefulSet 控制器根据 Pod 的序号顺序创建每个 Pod,并且在启动后续 Pod 之前,它会等待每个 Pod 的前驱 Pod 处于 Running 和 Ready 状态。
缩容
缩容意味着减少副本数。例如,您可能这样做是因为服务的流量水平已经下降,并且在当前规模下存在空闲资源。
在一个终端中,watch StatefulSet 的 Pod:
# End this watch when there are only 3 Pods for the StatefulSet
kubectl get pod --watch -l app=nginx
在另一个终端中,使用 kubectl patch
命令将 StatefulSet 缩容回三个副本:
kubectl patch sts web -p '{"spec":{"replicas":3}}'
statefulset.apps/web patched
等待 web-4
和 web-3
转换为 Terminating 状态。
# This should already be running
kubectl get pods --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 3h
web-1 1/1 Running 0 3h
web-2 1/1 Running 0 55s
web-3 1/1 Running 0 36s
web-4 0/1 ContainerCreating 0 18s
NAME READY STATUS RESTARTS AGE
web-4 1/1 Running 0 19s
web-4 1/1 Terminating 0 24s
web-4 1/1 Terminating 0 24s
web-3 1/1 Terminating 0 42s
web-3 1/1 Terminating 0 42s
按顺序终止 Pod
控制平面一次删除一个 Pod,依据其序号的反向顺序,并在删除下一个 Pod 之前等待每个 Pod 完全关闭。
获取 StatefulSet 的 PersistentVolumeClaims:
kubectl get pvc -l app=nginx
NAME STATUS VOLUME CAPACITY ACCESSMODES AGE
www-web-0 Bound pvc-15c268c7-b507-11e6-932f-42010a800002 1Gi RWO 13h
www-web-1 Bound pvc-15c79307-b507-11e6-932f-42010a800002 1Gi RWO 13h
www-web-2 Bound pvc-e1125b27-b508-11e6-932f-42010a800002 1Gi RWO 13h
www-web-3 Bound pvc-e1176df6-b508-11e6-932f-42010a800002 1Gi RWO 13h
www-web-4 Bound pvc-e11bb5f8-b508-11e6-932f-42010a800002 1Gi RWO 13h
仍然有五个 PersistentVolumeClaims 和五个 PersistentVolume。在探索 Pod 的稳定存储时,您看到当 StatefulSet 的 Pod 被删除时,挂载到 StatefulSet 的 Pod 上的 PersistentVolume 不会被删除。当 StatefulSet 缩容导致 Pod 删除时,这仍然适用。
更新 StatefulSet
StatefulSet 控制器支持自动化更新。使用的策略由 StatefulSet API 对象的 spec.updateStrategy
字段决定。此功能可用于升级 StatefulSet 中 Pod 的容器镜像、资源请求和/或限制、标签以及注解。
有两种有效的更新策略:RollingUpdate
(默认)和 OnDelete
。
滚动更新
RollingUpdate
更新策略将以反向序号顺序更新 StatefulSet 中的所有 Pod,同时遵守 StatefulSet 的保证。
您可以通过指定 .spec.updateStrategy.rollingUpdate.partition
,将使用 RollingUpdate
策略的 StatefulSet 更新分成多个 分区。您将在本教程的后续部分练习这一点。
首先,尝试一个简单的滚动更新。
在一个终端窗口中,再次更新 web
StatefulSet 配置,更改容器镜像:
kubectl patch statefulset web --type='json' -p='[{"op": "replace", "path": "/spec/template/spec/containers/0/image", "value":"registry.k8s.io/nginx-slim:0.24"}]'
statefulset.apps/web patched
在另一个终端中,watch StatefulSet 中的 Pod:
# End this watch when the rollout is complete
#
# If you're not sure, leave it running one more minute
kubectl get pod -l app=nginx --watch
输出类似于:
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 7m
web-1 1/1 Running 0 7m
web-2 1/1 Running 0 8m
web-2 1/1 Terminating 0 8m
web-2 1/1 Terminating 0 8m
web-2 0/1 Terminating 0 8m
web-2 0/1 Terminating 0 8m
web-2 0/1 Terminating 0 8m
web-2 0/1 Terminating 0 8m
web-2 0/1 Pending 0 0s
web-2 0/1 Pending 0 0s
web-2 0/1 ContainerCreating 0 0s
web-2 1/1 Running 0 19s
web-1 1/1 Terminating 0 8m
web-1 0/1 Terminating 0 8m
web-1 0/1 Terminating 0 8m
web-1 0/1 Terminating 0 8m
web-1 0/1 Pending 0 0s
web-1 0/1 Pending 0 0s
web-1 0/1 ContainerCreating 0 0s
web-1 1/1 Running 0 6s
web-0 1/1 Terminating 0 7m
web-0 1/1 Terminating 0 7m
web-0 0/1 Terminating 0 7m
web-0 0/1 Terminating 0 7m
web-0 0/1 Terminating 0 7m
web-0 0/1 Terminating 0 7m
web-0 0/1 Pending 0 0s
web-0 0/1 Pending 0 0s
web-0 0/1 ContainerCreating 0 0s
web-0 1/1 Running 0 10s
StatefulSet 中的 Pod 按反向序号顺序更新。StatefulSet 控制器终止每个 Pod,并在更新下一个 Pod 之前等待其转换为 Running 和 Ready 状态。注意,即使 StatefulSet 控制器直到其序号后继者处于 Running 和 Ready 状态后才会继续更新下一个 Pod,它也会在更新过程中将任何失败的 Pod 恢复到该 Pod 的现有版本。
已经收到更新的 Pod 将恢复到更新后的版本,而尚未收到更新的 Pod 将恢复到之前的版本。通过这种方式,控制器尝试在出现间歇性故障时继续保持应用程序健康和更新一致。
获取 Pod 以查看其容器镜像:
for p in 0 1 2; do kubectl get pod "web-$p" --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'; echo; done
registry.k8s.io/nginx-slim:0.24
registry.k8s.io/nginx-slim:0.24
registry.k8s.io/nginx-slim:0.24
StatefulSet 中的所有 Pod 现在都运行之前的容器镜像。
注意
您还可以使用kubectl rollout status sts/<name>
查看 StatefulSet 滚动更新的状态:暂存更新
您可以通过指定 .spec.updateStrategy.rollingUpdate.partition
,将使用 RollingUpdate
策略的 StatefulSet 更新分成多个 分区。
要了解更多背景信息,您可以阅读 StatefulSet 概念页中的分区滚动更新。
您可以使用 .spec.updateStrategy.rollingUpdate
中的 partition
字段暂存 StatefulSet 的更新。对于此更新,您将在更改 StatefulSet 的 Pod 模板时保持 StatefulSet 中现有 Pod 不变。然后您(或者,在教程之外,一些外部自动化)可以触发该准备好的更新。
首先,更新 web
StatefulSet 配置,向 updateStrategy
字段添加 partition:
# The value of "partition" determines which ordinals a change applies to
# Make sure to use a number bigger than the last ordinal for the
# StatefulSet
kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":3}}}}'
statefulset.apps/web patched
再次更新 StatefulSet 配置,更改此 StatefulSet 使用的容器镜像:
kubectl patch statefulset web --type='json' -p='[{"op": "replace", "path": "/spec/template/spec/containers/0/image", "value":"registry.k8s.io/nginx-slim:0.21"}]'
statefulset.apps/web patched
删除 StatefulSet 中的一个 Pod:
kubectl delete pod web-2
pod "web-2" deleted
等待替换的 web-2
Pod 处于 Running 和 Ready 状态:
# End the watch when you see that web-2 is healthy
kubectl get pod -l app=nginx --watch
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 4m
web-1 1/1 Running 0 4m
web-2 0/1 ContainerCreating 0 11s
web-2 1/1 Running 0 18s
获取 Pod 的容器镜像:
kubectl get pod web-2 --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'
registry.k8s.io/nginx-slim:0.24
注意,即使更新策略是 RollingUpdate
,StatefulSet 还是使用原始容器镜像恢复了 Pod。这是因为 Pod 的序号小于 updateStrategy
指定的 partition
值。
进行金丝雀发布
现在您将尝试对该暂存的更改进行金丝雀发布。
您可以通过递减上面指定的 partition
值来发布金丝雀版本(用于测试修改后的模板)。
更新 StatefulSet 配置以递减 partition 值:
# The value of "partition" should match the highest existing ordinal for
# the StatefulSet
kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":2}}}}'
statefulset.apps/web patched
控制平面触发替换 web-2
(通过优雅地删除,并在删除完成后创建一个新的 Pod 来实现)。等待新的 web-2
Pod 处于 Running 和 Ready 状态。
# This should already be running
kubectl get pod -l app=nginx --watch
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 4m
web-1 1/1 Running 0 4m
web-2 0/1 ContainerCreating 0 11s
web-2 1/1 Running 0 18s
获取 Pod 的容器:
kubectl get pod web-2 --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'
registry.k8s.io/nginx-slim:0.21
当您更改 partition
时,StatefulSet 控制器自动更新了 web-2
Pod,因为该 Pod 的序号大于或等于 partition
值。
删除 web-1
Pod:
kubectl delete pod web-1
pod "web-1" deleted
等待 web-1
Pod 处于 Running 和 Ready 状态。
# This should already be running
kubectl get pod -l app=nginx --watch
输出类似于:
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 6m
web-1 0/1 Terminating 0 6m
web-2 1/1 Running 0 2m
web-1 0/1 Terminating 0 6m
web-1 0/1 Terminating 0 6m
web-1 0/1 Terminating 0 6m
web-1 0/1 Pending 0 0s
web-1 0/1 Pending 0 0s
web-1 0/1 ContainerCreating 0 0s
web-1 1/1 Running 0 18s
获取 web-1
Pod 的容器镜像:
kubectl get pod web-1 --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'
registry.k8s.io/nginx-slim:0.24
web-1
恢复到了其原始配置,因为该 Pod 的序号小于 partition 值。指定 partition 后,当 StatefulSet 的 .spec.template
被更新时,所有序号大于或等于 partition 的 Pod 都将被更新。如果序号小于 partition 的 Pod 被删除或以其他方式终止,它将恢复到其原始配置。
分阶段发布
您可以使用分区滚动更新执行分阶段发布(例如,线性、几何或指数级发布),其方式类似于您执行金丝雀发布。要执行分阶段发布,请将 partition
设置为您希望控制器暂停更新的序号。
当前 partition 设置为 2
。将 partition 设置为 0
:
kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":0}}}}'
statefulset.apps/web patched
等待 StatefulSet 中的所有 Pod 都变为 Running 和 Ready 状态。
# This should already be running
kubectl get pod -l app=nginx --watch
输出类似于:
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 3m
web-1 0/1 ContainerCreating 0 11s
web-2 1/1 Running 0 2m
web-1 1/1 Running 0 18s
web-0 1/1 Terminating 0 3m
web-0 1/1 Terminating 0 3m
web-0 0/1 Terminating 0 3m
web-0 0/1 Terminating 0 3m
web-0 0/1 Terminating 0 3m
web-0 0/1 Terminating 0 3m
web-0 0/1 Pending 0 0s
web-0 0/1 Pending 0 0s
web-0 0/1 ContainerCreating 0 0s
web-0 1/1 Running 0 3s
获取 StatefulSet 中 Pod 的容器镜像详情:
for p in 0 1 2; do kubectl get pod "web-$p" --template '{{range $i, $c := .spec.containers}}{{$c.image}}{{end}}'; echo; done
registry.k8s.io/nginx-slim:0.21
registry.k8s.io/nginx-slim:0.21
registry.k8s.io/nginx-slim:0.21
通过将 partition
移动到 0
,您允许 StatefulSet 继续更新过程。
OnDelete
您可以通过将 .spec.template.updateStrategy.type
设置为 OnDelete
为 StatefulSet 选择此更新策略。
更新 web
StatefulSet 配置以使用 OnDelete
更新策略:
kubectl patch statefulset web -p '{"spec":{"updateStrategy":{"type":"OnDelete", "rollingUpdate": null}}}'
statefulset.apps/web patched
当您选择此更新策略时,StatefulSet 控制器不会在修改 StatefulSet 的 .spec.template
字段时自动更新 Pod。您需要自行管理发布过程——可以手动,或使用独立的自动化工具。
删除 StatefulSet
StatefulSet 支持非级联删除和级联删除。在非级联删除中,删除 StatefulSet 时,其 Pod 不会被删除。在级联删除中,StatefulSet 及其 Pod 都将被删除。
阅读在集群中使用级联删除,了解级联删除的总体信息。
非级联删除
在一个终端窗口中,watch StatefulSet 中的 Pod。
# End this watch when there are no Pods for the StatefulSet
kubectl get pods --watch -l app=nginx
使用kubectl delete
命令删除 StatefulSet。确保为命令提供 --cascade=orphan
参数。该参数告诉 Kubernetes 仅删除 StatefulSet,而不删除其任何 Pod。
kubectl delete statefulset web --cascade=orphan
statefulset.apps "web" deleted
获取 Pod,查看其状态:
kubectl get pods -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 6m
web-1 1/1 Running 0 7m
web-2 1/1 Running 0 5m
即使 web
已被删除,所有 Pod 仍然处于 Running 和 Ready 状态。删除 web-0
:
kubectl delete pod web-0
pod "web-0" deleted
获取 StatefulSet 的 Pod:
kubectl get pods -l app=nginx
NAME READY STATUS RESTARTS AGE
web-1 1/1 Running 0 10m
web-2 1/1 Running 0 7m
由于 web
StatefulSet 已被删除,web-0
未被重新启动。
在一个终端中,watch StatefulSet 的 Pod。
# Leave this watch running until the next time you start a watch
kubectl get pods --watch -l app=nginx
在第二个终端中,重新创建 StatefulSet。注意,除非您删除了 nginx
Service(这是您不应该做的),否则您会看到一个指示 Service 已存在的错误。
kubectl apply -f https://k8s.io/examples/application/web/web.yaml
statefulset.apps/web created
service/nginx unchanged
忽略该错误。它仅指示尝试创建 nginx 无头 Service,即使该 Service 已存在。
检查在第一个终端中运行的 kubectl get
命令的输出。
# This should already be running
kubectl get pods --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-1 1/1 Running 0 16m
web-2 1/1 Running 0 2m
NAME READY STATUS RESTARTS AGE
web-0 0/1 Pending 0 0s
web-0 0/1 Pending 0 0s
web-0 0/1 ContainerCreating 0 0s
web-0 1/1 Running 0 18s
web-2 1/1 Terminating 0 3m
web-2 0/1 Terminating 0 3m
web-2 0/1 Terminating 0 3m
web-2 0/1 Terminating 0 3m
当 web
StatefulSet 被重新创建时,它首先重新启动了 web-0
。由于 web-1
已经处于 Running 和 Ready 状态,当 web-0
转换为 Running 和 Ready 状态时,它采纳了此 Pod。由于您重新创建 StatefulSet 时 replicas
等于 2,一旦 web-0
被重新创建,并且一旦 web-1
已被确定为已经处于 Running 和 Ready 状态,web-2
就被终止了。
现在再看看 Pod Web 服务器提供的 index.html
文件内容:
for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1
即使您同时删除了 StatefulSet 和 web-0
Pod,它仍然提供最初输入到其 index.html
文件中的主机名。这是因为 StatefulSet 从不删除与 Pod 关联的 PersistentVolume。当您重新创建 StatefulSet 并重新启动 web-0
时,其原始 PersistentVolume 被重新挂载了。
级联删除
在一个终端窗口中,watch StatefulSet 中的 Pod。
# Leave this running until the next page section
kubectl get pods --watch -l app=nginx
在另一个终端中,再次删除 StatefulSet。这次,省略 --cascade=orphan
参数。
kubectl delete statefulset web
statefulset.apps "web" deleted
检查第一个终端中运行的 kubectl get
命令的输出,等待所有 Pod 都转换为 Terminating 状态。
# This should already be running
kubectl get pods --watch -l app=nginx
NAME READY STATUS RESTARTS AGE
web-0 1/1 Running 0 11m
web-1 1/1 Running 0 27m
NAME READY STATUS RESTARTS AGE
web-0 1/1 Terminating 0 12m
web-1 1/1 Terminating 0 29m
web-0 0/1 Terminating 0 12m
web-0 0/1 Terminating 0 12m
web-0 0/1 Terminating 0 12m
web-1 0/1 Terminating 0 29m
web-1 0/1 Terminating 0 29m
web-1 0/1 Terminating 0 29m
如您在缩容部分中看到的,Pod 一次终止一个,依照其序号的反向顺序。在终止一个 Pod 之前,StatefulSet 控制器会等待该 Pod 的后继者完全终止。
注意
尽管级联删除会移除 StatefulSet 及其 Pod,但级联操作不会删除与 StatefulSet 关联的无头 Service。您必须手动删除nginx
Service。kubectl delete service nginx
service "nginx" deleted
再一次重新创建 StatefulSet 和无头 Service:
kubectl apply -f https://k8s.io/examples/application/web/web.yaml
service/nginx created
statefulset.apps/web created
当 StatefulSet 的所有 Pod 都转换为 Running 和 Ready 状态时,检索其 index.html
文件内容:
for i in 0 1; do kubectl exec -i -t "web-$i" -- curl http://localhost/; done
web-0
web-1
即使您完全删除了 StatefulSet 及其所有 Pod,Pod 也会被重新创建并挂载其 PersistentVolume,并且 web-0
和 web-1
继续提供其主机名。
最后,删除 nginx
Service:
kubectl delete service nginx
service "nginx" deleted
...以及 web
StatefulSet:
kubectl delete statefulset web
statefulset "web" deleted
Pod 管理策略
对于一些分布式系统,StatefulSet 的排序保证是不必要和/或不需要的。这些系统仅需要唯一性和身份。
您可以指定Pod 管理策略以避免这种严格排序;可以选择 OrderedReady
(默认)或 Parallel
。
OrderedReady Pod 管理
OrderedReady
Pod 管理是 StatefulSet 的默认设置。它告诉 StatefulSet 控制器遵循如上所示的排序保证。
当您的应用程序要求或期望更改(例如发布新版本的应用程序)按照 StatefulSet 提供的序号(Pod 编号)的严格顺序发生时,请使用此选项。换句话说,如果您有 Pod app-0
、app-1
和 app-2
,Kubernetes 将首先更新 app-0
并检查它。一旦检查通过,Kubernetes 将更新 app-1
,最后更新 app-2
。
如果您再添加两个 Pod,Kubernetes 将设置 app-3
并在其变为健康后,再部署 app-4
。
因为这是默认设置,您已经练习过使用它了。
Parallel Pod 管理
另一个选项,Parallel
Pod 管理,告诉 StatefulSet 控制器并行启动或终止所有 Pod,并且在启动或终止另一个 Pod 之前,不等待 Pod 变为 Running
和 Ready
状态或完全终止。
Parallel
Pod 管理选项仅影响扩缩容操作的行为。更新不受影响;Kubernetes 仍然按顺序发布更改。对于本教程,应用程序非常简单:一个 Web 服务器,它会告诉您其主机名(因为这是一个 StatefulSet,每个 Pod 的主机名都不同且可预测)。
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
serviceName: "nginx"
podManagementPolicy: "Parallel"
replicas: 2
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: registry.k8s.io/nginx-slim:0.24
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: [ "ReadWriteOnce" ]
resources:
requests:
storage: 1Gi
此清单文件与您上面下载的文件相同,只是 web
StatefulSet 的 .spec.podManagementPolicy
设置为 Parallel
。
在一个终端中,watch StatefulSet 中的 Pod。
# Leave this watch running until the end of the section
kubectl get pod -l app=nginx --watch
在另一个终端中,重新配置 StatefulSet 使用 Parallel
Pod 管理策略:
kubectl apply -f https://k8s.io/examples/application/web/web-parallel.yaml
service/nginx updated
statefulset.apps/web updated
保持运行 watch 命令的终端打开。在另一个终端窗口中,对 StatefulSet 进行扩缩容:
kubectl scale statefulset/web --replicas=5
statefulset.apps/web scaled
检查运行 kubectl get
命令的终端的输出。它可能看起来像:
web-3 0/1 Pending 0 0s
web-3 0/1 Pending 0 0s
web-3 0/1 Pending 0 7s
web-3 0/1 ContainerCreating 0 7s
web-2 0/1 Pending 0 0s
web-4 0/1 Pending 0 0s
web-2 1/1 Running 0 8s
web-4 0/1 ContainerCreating 0 4s
web-3 1/1 Running 0 26s
web-4 1/1 Running 0 2s
StatefulSet 启动了三个新的 Pod,并且在启动第二个和第三个 Pod 之前,它没有等待第一个变为 Running 和 Ready 状态。
如果你的工作负载具有有状态元素,或者需要 Pod 能够通过可预测的命名相互识别,特别是如果你有时需要快速提供大量额外容量,那么这种方法非常有用。如果本教程中简单的 Web 服务突然每分钟收到额外的 1,000,000 个请求,那么你会希望运行更多的 Pods - 但你也不想等待每个新 Pod 启动。并行启动额外的 Pods 可以缩短请求额外容量到可用之间的时间。
清理
你应该打开两个终端,准备运行 kubectl
命令作为清理的一部分。
kubectl delete sts web
# sts is an abbreviation for statefulset
你可以通过 kubectl get
来查看正在被删除的那些 Pods。
# end the watch when you've seen what you need to
kubectl get pod -l app=nginx --watch
web-3 1/1 Terminating 0 9m
web-2 1/1 Terminating 0 9m
web-3 1/1 Terminating 0 9m
web-2 1/1 Terminating 0 9m
web-1 1/1 Terminating 0 44m
web-0 1/1 Terminating 0 44m
web-0 0/1 Terminating 0 44m
web-3 0/1 Terminating 0 9m
web-2 0/1 Terminating 0 9m
web-1 0/1 Terminating 0 44m
web-0 0/1 Terminating 0 44m
web-2 0/1 Terminating 0 9m
web-2 0/1 Terminating 0 9m
web-2 0/1 Terminating 0 9m
web-1 0/1 Terminating 0 44m
web-1 0/1 Terminating 0 44m
web-1 0/1 Terminating 0 44m
web-0 0/1 Terminating 0 44m
web-0 0/1 Terminating 0 44m
web-0 0/1 Terminating 0 44m
web-3 0/1 Terminating 0 9m
web-3 0/1 Terminating 0 9m
web-3 0/1 Terminating 0 9m
在删除过程中,StatefulSet 会并发地移除所有 Pods;它不会等到某个 Pod 的序号后继者终止后才删除该 Pod。
关闭运行 kubectl get
命令的终端,并删除 nginx
Service
kubectl delete svc nginx
删除本教程中使用的 PersistentVolumes 的持久化存储介质。
kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
www-web-0 Bound pvc-2bf00408-d366-4a12-bad0-1869c65d0bee 1Gi RWO standard 25m
www-web-1 Bound pvc-ba3bfe9c-413e-4b95-a2c0-3ea8a54dbab4 1Gi RWO standard 24m
www-web-2 Bound pvc-cba6cfa6-3a47-486b-a138-db5930207eaf 1Gi RWO standard 15m
www-web-3 Bound pvc-0c04d7f0-787a-4977-8da3-d9d3a6d8d752 1Gi RWO standard 15m
www-web-4 Bound pvc-b2c73489-e70b-4a4e-9ec1-9eab439aa43e 1Gi RWO standard 14m
kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-0c04d7f0-787a-4977-8da3-d9d3a6d8d752 1Gi RWO Delete Bound default/www-web-3 standard 15m
pvc-2bf00408-d366-4a12-bad0-1869c65d0bee 1Gi RWO Delete Bound default/www-web-0 standard 25m
pvc-b2c73489-e70b-4a4e-9ec1-9eab439aa43e 1Gi RWO Delete Bound default/www-web-4 standard 14m
pvc-ba3bfe9c-413e-4b95-a2c0-3ea8a54dbab4 1Gi RWO Delete Bound default/www-web-1 standard 24m
pvc-cba6cfa6-3a47-486b-a138-db5930207eaf 1Gi RWO Delete Bound default/www-web-2 standard 15m
kubectl delete pvc www-web-0 www-web-1 www-web-2 www-web-3 www-web-4
persistentvolumeclaim "www-web-0" deleted
persistentvolumeclaim "www-web-1" deleted
persistentvolumeclaim "www-web-2" deleted
persistentvolumeclaim "www-web-3" deleted
persistentvolumeclaim "www-web-4" deleted
kubectl get pvc
No resources found in default namespace.