En este documento se explica cómo ejecutar una herramienta independiente para preparar una actualización. Antes de actualizar un clúster de administrador o de usuario que tenga la versión 1.9 o una posterior de Google Distributed Cloud, te recomendamos que ejecutes la herramienta previa a la actualización.
Para ejecutar la herramienta, usa la secuencia de comandos bash de este documento, que utiliza algoritmos de hash seguros (SHA) codificados. En cada lanzamiento de la herramienta, este documento se actualizará con el nuevo SHA. La secuencia de comandos crea un trabajo de Kubernetes para ejecutar una versión específica de las comprobaciones previas al lanzamiento en función de la versión a la que vayas a actualizar.
Comprobaciones previas a la actualización
La herramienta comprueba lo siguiente antes de actualizar un clúster de usuarios:
Categoría | Descripción |
---|---|
Estado del clúster |
|
Configuraciones |
|
La herramienta comprueba lo siguiente antes de actualizar un clúster de administrador:
Categoría | Descripción |
---|---|
Estado del clúster | Valida los PodDisruptionBudgets (PDBs) en todos los espacios de nombres del clúster de administrador. |
Configuraciones |
|
Prepararse para ejecutar la herramienta
Actualiza tu estación de trabajo de administrador si aún no lo has hecho.
Ejecuta
gkectl prepare
para importar imágenes de SO a vSphere si aún no lo has hecho:gkectl prepare \ --bundle-path /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Haz los cambios siguientes:
TARGET_VERSION
: la versión del parche de Google Distributed Cloud a la que quieres actualizar. El formato del número de versión debe ser una versión de parche completa, como1.13.10-gke.42
.ADMIN_CLUSTER_KUBECONFIG
: la ruta al archivo kubeconfig del clúster de administrador.
Si usas un registro privado, descarga la imagen de contenedor de comprobación previa con el digest de Docker proporcionado y sube la imagen al registro privado. Si no usas un registro privado, ve al paso siguiente.
export SRC_IMAGE=gcr.io/gke-on-prem-release/preflight@sha256:9704315c6637750a014d0079ca04a8f97d0ca3735e175020377107c3181f6234 export DST_IMAGE=REGISTRY_ADDRESS/preflight:$(date +%Y-%m%d-%H%M%S) docker pull $SRC_IMAGE docker tag $SRC_IMAGE $DST_IMAGE docker push $DST_IMAGE
Sustituye
REGISTRY_ADDRESS
por la dirección del registro privado.En la siguiente secuencia de comandos de Bash, asigna valores a estos marcadores de posición:
ADMIN_CLUSTER_KUBECONFIG
: la ruta al archivo kubeconfig del clúster de administrador.REGISTRY_ADDRESS
: si el clúster de administrador usa un registro privado, esta es la dirección del registro privado que especificaste en el paso anterior. Si no usas un registro privado, especifica el registro público:gcr.io/gke-on-prem-release
#!/bin/bash UPGRADE_TARGET_VERSION=${1} CLUSTER_NAME=${2} ADMIN_KUBECONFIG=ADMIN_CLUSTER_KUBECONFIG REGISTRY_ADDRESS=REGISTRY_ADDRESS pre_upgrade_namespace=kube-system if [[ -z "$CLUSTER_NAME" ]] then echo "Running the pre-ugprade tool before admin cluster upgrade" else echo "Running the pre-ugprade tool before user cluster upgrade" pre_upgrade_namespace=$CLUSTER_NAME-gke-onprem-mgmt fi kubectl apply --kubeconfig ${ADMIN_KUBECONFIG} -f - <<EOF apiVersion: v1 kind: ServiceAccount metadata: name: pre-upgrade-job namespace: $pre_upgrade_namespace EOF kubectl apply --kubeconfig ${ADMIN_KUBECONFIG} -f - <<EOF apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: creationTimestamp: null name: pre-upgrade-job-rolebinding-in-$pre_upgrade_namespace roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: onprem-user-cluster-controller-role subjects: - kind: ServiceAccount name: pre-upgrade-job namespace: $pre_upgrade_namespace EOF kubectl apply --kubeconfig ${ADMIN_KUBECONFIG} -f - <<EOF apiVersion: batch/v1 kind: Job metadata: name: pre-upgrade-$(date +%Y-%m%d-%H%M%S) namespace: $pre_upgrade_namespace labels: onprem.cluster.gke.io/job-usage: preflight spec: ttlSecondsAfterFinished: 2592000 backoffLimit: 2 template: metadata: labels: onprem.cluster.gke.io/pod-usage: preflight spec: containers: - name: preflight image: $REGISTRY_ADDRESS/preflight@sha256:9704315c6637750a014d0079ca04a8f97d0ca3735e175020377107c3181f6234 imagePullPolicy: Always command: - /preflight - --upgrade-target-version - "$UPGRADE_TARGET_VERSION" - --cluster-name - "$CLUSTER_NAME" - --scenario - pre-upgrade restartPolicy: Never serviceAccountName: pre-upgrade-job imagePullSecrets: - name: private-registry-creds EOF
Guarda la secuencia de comandos Bash anterior en un archivo llamado
pre-upgrade.sh
y haz que sea ejecutable:chmod +x pre-upgrade.sh
Ejecutar la secuencia de comandos
Los argumentos que proporciones al ejecutar la secuencia de comandos dependen de si vas a actualizar un clúster de usuario o un clúster de administrador:
- Antes de actualizar un clúster de administrador, ejecuta la secuencia de comandos de la siguiente manera:
./pre-upgrade.sh TARGET_VERSION
- Antes de actualizar un clúster de usuarios:
./pre-upgrade.sh TARGET_VERSION USER_CLUSTER_NAME
Sustituye
USER_CLUSTER_NAME
por el nombre del clúster de usuario que vas a actualizar.El resultado debería ser similar al siguiente:
job.batch/pre-upgrade-2023-0822-213551 created
Ejecuta el siguiente comando en los pods controlados por el trabajo para obtener una lista de resultados de validación.
kubectl logs -n JOB_NAMESPACE jobs/JOB_NAME \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Haz los cambios siguientes:
JOB_NAME
: es el nombre del trabajo que genera la secuencia de comandos del paso anterior.JOB_NAMESPACE
: el valor que definas dependerá de si vas a actualizar un clúster de administrador o de usuario. Si vas a actualizar un clúster de administrador, especificakube-system
. Si vas a actualizar un clúster de usuarios, especificaUSER_CLUSTER_NAME-gke-onprem-mgmt
.
Espera unos minutos a que se complete el trabajo o a que alcance el límite de espera y falle. En los resultados, consulte los
Reason
para ver si hay alguna comprobación con el estadoWarning
,Unknown
oFailure
y si puede resolver el problema.Antes de actualizar los clústeres, ejecuta el siguiente comando para eliminar el trabajo:
kubectl delete jobs JOB_NAME -n JOB_NAMESPACE \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG