Actualiza un clúster o un grupo de nodos

En este documento, se explica cómo actualizar clústeres y grupos de nodos en Google Distributed Cloud (solo software) para VMware. En este documento, se proporcionan los pasos para actualizar la estación de trabajo de administrador, los clústeres de usuario y los clústeres de administrador. En el caso de los clústeres de usuarios, este documento proporciona los pasos para actualizar el plano de control y los grupos de nodos al mismo tiempo o por separado.

Esta página está destinada a administradores de TI y operadores que administran el ciclo de vida de la infraestructura tecnológica subyacente. Para obtener más información sobre los roles comunes y las tareas de ejemplo a las que hacemos referencia en el contenido de Google Cloud, consulta Tareas y roles comunes de los usuarios de GKE Enterprise.

Antes de continuar, te recomendamos que revises la siguiente documentación:

Revisa las reglas de firewall

En la versión 1.29 y versiones posteriores, las verificaciones previas al vuelo del servidor están habilitadas de forma predeterminada. Las verificaciones previas al vuelo del servidor requieren reglas de firewall adicionales. En Reglas de firewall para clústeres de administrador, busca "Verificaciones previas al vuelo" y asegúrate de que se hayan configurado todas las reglas de firewall necesarias.

Con las comprobaciones previas del servidor, cuando actualizas un clúster de usuario mediante gkectl, las comprobaciones previas se ejecutan en el clúster de administrador en lugar de localmente en la estación de trabajo de administrador. Las verificaciones previas al vuelo del servidor también se ejecutan en el clúster de administrador cuando usas la consola de Google Cloud, Google Cloud CLI o Terraform para actualizar un clúster.

Cuando actualizas un clúster de administrador, Google Distributed Cloud implementa un clúster de Kubernetes en Docker (tipo) para alojar de forma temporal los controladores de Kubernetes necesarios para actualizar el clúster de administrador. Este clúster transitorio se denomina clúster de arranque. Las verificaciones previas del servidor se ejecutan en el clúster de arranque cuando actualizas un clúster de administrador.

Requisitos de la API de Google y de IAM

Para actualizar un clúster a la versión 1.28 y versiones posteriores, debes habilitar kubernetesmetadata.googleapis.com y otorgar el rol de IAM kubernetesmetadata.publisher a la cuenta de servicio de supervisión y registro. Estos cambios son obligatorios para usar Cloud Monitoring.

  1. Habilitar kubernetesmetadata.googleapis.com:

    gcloud services enable --project PROJECT_ID  \
        kubernetesmetadata.googleapis.com
    

    Reemplaza PROJECT_ID por el ID del proyecto host de la flota del que es miembro el clúster de usuarios. Este es el proyecto que especificaste cuando se creó el clúster. Si creaste el clúster con gkectl, este es el ID del proyecto en el campo gkeConnect.projectID del archivo de configuración del clúster.

  2. Si tu organización configuró una lista de entidades permitidas que permite que el tráfico de las APIs de Google y otras direcciones pasen a través de tu servidor proxy, agrega lo kubernetesmetadata.googleapis.com a la lista de entidades permitidas:

  3. Otorga el rol kubernetesmetadata.publisher a la cuenta de servicio de supervisión de registros:

    gcloud projects add-iam-policy-binding PROJECT_ID \
      --member "serviceAccount:SERVICE_ACCOUNT_EMAIL" \
      --role "roles/kubernetesmetadata.publisher"
    

    Reemplaza SERVICE_ACCOUNT_EMAIL por la dirección de correo electrónico de tu cuenta de servicio de registro y supervisión.

Requisitos de IAM para actualizar clústeres de usuarios

Omite esta sección si planeas usar gkectl para la actualización del clúster de usuarios.

Si deseas usar la consola de Google Cloud, Google Cloud CLI o Terraform para actualizar un clúster de usuario y no eres propietario del proyecto, debes tener el rol de administración de identidades y accesos roles/gkeonprem.admin en el proyecto de Google Cloud en el que se creó el clúster. Para obtener más detalles sobre los permisos incluidos en este rol, consulta Roles de GKE On-Prem en la documentación de IAM.

Para usar la consola y actualizar el clúster, como mínimo, también necesitarás lo siguiente:

  • roles/container.viewer. Este rol permite que los usuarios vean la página de clústeres de GKE y otros recursos de contenedores en la consola. Para obtener más información sobre los permisos incluidos en este rol o sobre cómo otorgar un rol con permisos de lectura y escritura, consulta Roles de Kubernetes Engine en la documentación de IAM.

  • roles/gkehub.viewer: Este rol permite que los usuarios vean los clústeres en la consola. Si deseas obtener detalles sobre los permisos incluidos en este rol o para otorgar un rol con permisos de lectura y escritura, consulta Roles de GKE Hub en la documentación de IAM.

Realiza cambios de configuración antes o después de una actualización

Si necesitas realizar cambios de configuración en tus clústeres, realiza la actualización del clúster antes o después de la actualización. El único cambio en la configuración del clúster para una actualización debería ser la versión. Según la versión y el tipo de clúster, se ignoran otros cambios de configuración de forma silenciosa o se produce un error en la actualización. Para obtener más información, consulta Quita cambios no admitidos para desbloquear la actualización.

Actualiza tu estación de trabajo de administrador

Debes actualizar la estación de trabajo de administrador si planeas usar gkectl para actualizar un clúster de usuario.

Si planeas usar la consola, gcloud CLI o Terraform para actualizar un clúster de usuarios, puedes omitir la actualización de la estación de trabajo administrador por ahora. Sin embargo, deberás actualizar la estación de trabajo de administrador cuando tengas todo listo para actualizar el clúster de administrador, ya que solo gkectl admite actualizaciones de clústeres de administrador.

La forma en que actualices la estación de trabajo del administrador depende de cómo la hayas creado: con gkeadm o administrada por el usuario.

gkeadm

Ubica los archivos necesarios

Antes de crear la estación de trabajo de administrador, completaste un archivo de configuración de la estación de trabajo de administrador que generó gkeadm create config. El nombre predeterminado para este archivo es admin-ws-config.yaml.

Además, tu estación de trabajo tiene un archivo de información. El nombre predeterminado de este archivo es el mismo que el nombre de la estación de trabajo del administrador.

Localiza el archivo de configuración de la estación de trabajo del administrador y el archivo de información. Los necesitas para realizar los pasos de la actualización. Si estos archivos se encuentran en tu directorio actual y tienen sus nombres predeterminados, no tendrás que especificarlos cuando ejecutes los comandos de actualización. Si estos archivos están en otro directorio o si cambiaste los nombres de archivo, debes especificarlos mediante las marcas --config y --info-file.

Si falta tu archivo de información de salida, puedes volver a crearlo. Consulta Vuelve a crear un archivo de información si falta.

Actualizar

Para actualizarla, haz lo siguiente:

  1. Descarga gkeadm.

    gkeadm upgrade gkeadm --target-version TARGET_VERSION
    

    Reemplaza TARGET_VERSION por la versión de destino de la actualización. Debes especificar un número de versión completo en forma de X.Y.Z-gke.N.. Para obtener una lista de las versiones de Google Distributed Cloud, consulta Control de versiones.

  2. Actualiza tu estación de trabajo de administrador:

    gkeadm upgrade admin-workstation --config AW_CONFIG_FILE \
        --info-file INFO_FILE
    

    Reemplaza lo siguiente:

    • AW_CONFIG_FILE es la ruta del archivo de configuración de la estación de trabajo del administrador. Puedes omitir esta marca si el archivo se encuentra en el directorio actual y tiene el nombre admin-ws-config.yaml.

    • INFO_FILE es la ruta del archivo de información. Puedes omitir esta marca si el archivo se encuentra en tu directorio actual. El nombre predeterminado de este archivo es el mismo que el nombre de la estación de trabajo del administrador.

Administrada por el usuario

En tu estación de trabajo de administrador, navega a un directorio en el que deseas instalar una versión nueva de gkectl.

Descarga gkectl.

gcloud storage cp gs://gke-on-prem-release/gkectl/VERSION/gkectl ./
chmod +x gkectl

Reemplaza VERSION por la versión de destino de la actualización. Por ejemplo: 1.30.100-gke.96.

Descarga el paquete de Google Distributed Cloud. Asegúrate de que la versión coincida con la que usaste para descargar gkectl:

gcloud storage cp gs://gke-on-prem-release/gke-onprem-bundle/VERSION/gke-onprem-vsphere-VERSION.tgz ./

Verifica las versiones disponibles para las actualizaciones de clústeres

Ejecuta el siguiente comando para ver qué versiones están disponibles para la actualización:

gkectl version --kubeconfig ADMIN_CLUSTER_KUBECONFIG

En el resultado, se muestra la versión actual y las versiones disponibles para actualizar.

Si planeas usar la consola, gcloud CLI o Terraform para la actualización, la versión tardará entre 7 y 10 días después de un lanzamiento en estar disponible en la API de GKE On-Prem en todas las regiones de Google Cloud. La consola solo muestra las versiones disponibles para la actualización del clúster de usuarios. Los pasos para actualizar un clúster de usuario con gcloud CLI o Terraform incluyen un paso para ejecutar gcloud container vmware clusters query-version-config y obtener las versiones disponibles para la actualización.

Actualiza un clúster de usuario

Puedes usar gkectl, la consola, gcloud CLI o Terraform para actualizar un clúster de usuarios. Para obtener información sobre cómo decidir qué herramienta usar, consulta Elige una herramienta para actualizar clústeres de usuario.

gkectl

Prepárate para actualizar un clúster de usuario

Ejecuta los siguientes pasos en tu estación de trabajo de administrador:

  1. Ejecuta gkectl prepare para importar imágenes de SO a vSphere:

    gkectl prepare \
      --bundle-path /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz \
      --kubeconfig ADMIN_CLUSTER_KUBECONFIG
    
  2. Si tu clúster tiene un grupo de nodos de Windows, ejecuta gkectl prepare windows y actualiza el campo osImage del grupo de nodos. Para obtener instrucciones detalladas, consulta Actualiza el clúster de usuario con los grupos de nodos de Windows.

  3. En el archivo de configuración del clúster de usuario, establece gkeOnPremVersion en la versión de destino de la actualización.

  4. Solo para grupos de nodos de Ubuntu y COS: Especifica los grupos de nodos que deseas actualizar. La actualización de grupos de nodos por separado del plano de control es compatible con los grupos de nodos de Ubuntu y COS, pero no con los de Windows.

    En el archivo de configuración del clúster de usuario, indica qué grupos de nodos deseas actualizar de la siguiente manera:

    • Para cada grupo de nodos que quieras actualizar, quita el campo nodePools.nodePool[i].gkeOnPremVersion o configúralo como una cadena vacía.

    • Para cada grupo de nodos que no quieras actualizar, configura nodePools.nodePool[i].gkeOnPremVersion en la versión actual.

    Por ejemplo, supongamos que tu clúster de usuario está en la versión 1.15.5-gke.41 y tiene dos grupos de nodos: pool-1 y pool-2. Supongamos también que deseas actualizar el plano de control y pool-1 a la versión 1.16.3-gke.45, pero quieres que pool-2 permanezca en la versión 1.15.5-gke.41. En la siguiente porción de un archivo de configuración de clúster de usuario, se muestra cómo especificar este ejemplo:

    gkeOnPremVersion: 1.16.3-gke.45
    
    nodePools:
    - name: pool-1
      gkeOnPremVersion: ""
      cpus: 4
      memoryMB: 8192
      replicas: 3
      osImageType: ubuntu_containerd
    - name: pool-2
      gkeOnPremVersion: 1.15.5-gke.41
      cpus: 4
      memoryMB: 8192
      replicas: 5
      osImageType: ubuntu_containerd
    

Ejecutar comprobaciones previas

Cuando actualices a la versión 1.29 y versiones posteriores, puedes ejecutar las verificaciones previas antes de actualizar un clúster de usuario:

gkectl upgrade cluster \
  --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
  --config USER_CLUSTER_CONFIG \
  --dry-run

Con la marca --dry-run, gkectl upgrade cluster ejecuta las verificaciones previas, pero no inicia el proceso de actualización. Aunque las versiones anteriores de Google Distributed Cloud ejecutan comprobaciones preliminares, no se pueden ejecutar por separado de la actualización. Cuando agregas la marca --dry-run, puedes detectar y corregir cualquier problema que las comprobaciones preliminares encuentren en tu clúster de usuario antes de la actualización.

Ejecuta gkectl upgrade cluster

Existen dos variantes del comando gkectl upgrade cluster:

  • Asíncrono: (recomendado)
    Con la variación asíncrona, el comando inicia la actualización y, luego, la completa. No es necesario que mires el resultado del comando durante toda la actualización. En su lugar, puedes ejecutar gkectl list clusters y gkectl describe clusters de forma periódica para verificar el progreso de la actualización. Para usar la variación asíncrona, incluye la marca --async en el comando.

  • Síncrona:
    Con la variación síncrona, el comando gkectl upgrade cluster muestra mensajes de estado en la estación de trabajo del administrador a medida que avanza la actualización.

Actualización asíncrona

  1. Omite este paso si actualizas a una versión posterior a la 1.16.

    Si usas credenciales preparadas y un registro privado para el clúster de usuarios, asegúrate de que la credencial del registro privado esté preparada antes de actualizar el clúster de usuarios. Si deseas obtener información para preparar la credencial de registro privado, consulta Configura credenciales preparadas para los clústeres de usuario.

  2. En la estación de trabajo del administrador, inicia una actualización asíncrona:

    gkectl upgrade cluster \
      --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
      --config USER_CLUSTER_CONFIG \
      --async
    

    Se completa el comando anterior y puedes seguir usando tu estación de trabajo de administrador mientras se realiza la actualización.

  3. Para ver el estado de la actualización, haz lo siguiente:

    gkectl list clusters --kubeconfig ADMIN_CLUSTER_KUBECONFIG
    

    El resultado muestra un valor para el clúster STATE. Si el clúster aún está realizando la actualización, el valor de STATE es UPGRADING. Por ejemplo:

    NAMESPACE             NAME    READY   STATE       AGE   VERSION
    my-uc-gkeonprem-mgmt  my-uc   False   UPGRADING   9h    1.30.0-gke.1
    

    Los valores posibles para STATE son PROVISIONING, UPGRADING, DELETING, UPDATING, RUNNING, RECONCILING, ERROR y UNKNOWN.

  4. Para obtener más detalles sobre el progreso de la actualización y los eventos del clúster, haz lo siguiente:

    gkectl describe clusters --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
      --cluster USER_CLUSTER_NAME -v 5
    

    En el resultado, se muestra el recurso personalizado OnPremUserCluster para el clúster de usuario especificado, que incluye el estado, las condiciones y los eventos del clúster.

    Registramos eventos para el inicio y el final de cada fase de actualización crítica, incluidos los siguientes:

    • ControlPlaneUpgrade
    • MasterNodeUpgrade
    • AddonsUpgrade
    • NodePoolsUpgrade

    Resultado de ejemplo:

    Events:
    Type    Reason                      Age    From                            Message
    ----     ------                     ----   ----                            -------
    Normal  NodePoolsUpgradeStarted     22m    onprem-user-cluster-controller  Creating or updating node pools: pool-2: Creating or updating node pool
    Normal  AddonsUpgradeStarted        22m    onprem-user-cluster-controller  Creating or updating addon workloads
    Normal  ControlPlaneUpgradeStarted  25m    onprem-user-cluster-controller  Creating or updating cluster control plane workloads: deploying user-kube-apiserver-base, ...: 14/15 pods are ready
    Normal  ControlPlaneUpgradeFinished 23m    onprem-user-cluster-controller  Control plane is running
    
  5. Cuando se complete la actualización, gkectl list clusters mostrará un STATUS de RUNNING:

    NAMESPACE             NAME    READY   STATE     AGE     VERSION
    my-uc-gkeonprem-mgmt  my-uc   True    RUNNING   9h      1.30.0-gke.1
    

    Además, cuando se completa la actualización, gkectl describe clusters muestra un campo Last GKE On Prem Version en Status. Por ejemplo:

    Status:
    Cluster State:  RUNNING
    Last GKE On Prem Version:  1.30.0-gke.1
    

Soluciona problemas de actualización asíncrona

Para una actualización asíncrona, la duración del tiempo de espera se basa en la cantidad de nodos del clúster. Si la actualización tarda más que la duración del tiempo de espera, el estado del clúster cambia de UPGRADING a ERROR, con un evento que indica que se agotó el tiempo de espera de la operación de actualización. Ten en cuenta que el estado ERROR aquí significa que la actualización está tardando más de lo esperado, pero no se cerró. El controlador continúa con la conciliación y vuelve a intentar la operación.

Por lo general, un tiempo de espera es el resultado de un interbloqueo causado por una PodDisruptionBudget (PDB). En ese caso, los Pods no se pueden expulsar de los nodos antiguos ni se pueden agotar. Si la expulsión del Pod tarda más de 10 minutos, escribimos un evento en el objeto OnPremUserCluster. Para capturar el evento, ejecuta gkectl describe clusters. Luego, puedes ajustar el PDB para permitir que se drene el nodo. Después de eso, la actualización puede continuar y, finalmente, completarse.

Ejemplo de evento:

Warning  PodEvictionTooLong  96s (x2 over 4m7s)  onprem-user-cluster-controller
Waiting too long(>10m0.00000003s) for (kube-system/coredns-856d6dbfdf-dl6nz) eviction.

Además, cuando se bloquea o falla una actualización, puedes ejecutar gkectl diagnose para verificar si hay problemas comunes del clúster. Según el resultado, puedes decidir si realizar una corrección manual o comunicarte con el equipo de asistencia de Anthos para obtener más ayuda.

Actualización síncrona

El comando gkectl upgrade ejecuta comprobaciones preliminares. Si las comprobaciones previas fallan, el comando se bloquea. Debes corregir las fallas o usar la marca --skip-preflight-check-blocking. Solo debes omitir las comprobaciones previas si estás seguro de que no hay fallas críticas.

Continúa con estos pasos en la estación de trabajo de administrador:

  1. Omite este paso si actualizas a una versión posterior a la 1.16.

    Si usas credenciales preparadas y un registro privado para el clúster de usuarios, asegúrate de que la credencial del registro privado esté preparada antes de actualizar el clúster de usuarios. Si deseas obtener información para preparar la credencial de registro privado, consulta Configura credenciales preparadas para los clústeres de usuario.

  2. Actualiza el clúster:

    gkectl upgrade cluster \
      --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
      --config USER_CLUSTER_CONFIG_FILE
    
  3. Si actualizas a la versión 1.14.0 o una posterior, se genera un archivo kubeconfig nuevo para el clúster de usuario que reemplaza cualquier archivo existente. Para ver los detalles del clúster en el archivo, ejecuta el siguiente comando:

    kubectl config view --kubeconfig USER_CLUSTER_KUBECONFIG

Actualiza grupos de nodos adicionales

Si solo actualizaste el plano de control del clúster de usuario o si actualizaste el plano de control y algunos, pero no todos los grupos de nodos, sigue estos pasos para actualizar los grupos de nodos:

  1. Edita el archivo de configuración del clúster de usuario. Para cada grupo de nodos que quieras actualizar, quita el campo nodePools.nodePool[i].gkeOnPremVersion o configúralo como una cadena vacía, como se muestra en el siguiente ejemplo:

    gkeOnPremVersion: 1.16.3-gke.45
    
    nodePools:
    - name: pool-1
      gkeOnPremVersion: ""
      cpus: 4
      memoryMB: 8192
      replicas: 3
      osImageType: ubuntu_containerd
    - name: pool-2
      gkeOnPremVersion: ""
      cpus: 4
      memoryMB: 8192
      replicas: 5
      osImageType: ubuntu_containerd
    
  2. Ejecuta gkectl update cluster para aplicar el cambio:

    gkectl update cluster --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
      --config USER_CLUSTER_CONFIG
    

    Reemplaza lo siguiente:

    • ADMIN_CLUSTER_KUBECONFIG: la ruta de acceso al archivo kubeconfig del clúster de administrador

    • USER_CLUSTER_CONFIG es la ruta de acceso del archivo de configuración del clúster de usuario.

Si tienes un problema después de actualizar un grupo de nodos, puedes revertirlo a la versión anterior. Para obtener más información, consulta Revierte un grupo de nodos después de una actualización.

Reanuda una actualización

Si se interrumpe una actualización del clúster de usuario, puedes reanudar la actualización del clúster de usuario si ejecutas el mismo comando de actualización con la marca --skip-validation-all:

gkectl upgrade cluster \
  --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
  --config USER_CLUSTER_CONFIG_FILE \
  --skip-validation-all

Console

La actualización de un clúster de usuario requiere algunos cambios en el clúster de administrador. La consola hace lo siguiente automáticamente:

  • Inscribe el clúster de administrador en la API de GKE On-Prem si aún no está inscrito.

  • Descarga y, luego, implementa un paquete de componentes en el clúster de administrador. La versión de los componentes coincide con la que especificaste para la actualización. Estos componentes permiten que el clúster de administrador administre clústeres de usuario en esa versión.

Para actualizar un clúster de usuario, haz lo siguiente:

  1. En la consola, ve a la página Descripción general de los clústeres de Google Kubernetes Engine.

    Ir a los clústeres de GKE

  2. Selecciona el proyecto de Google Cloud y, luego, el clúster que deseas actualizar.

  3. En el panel Detalles, haz clic en Más detalles.

  4. En la sección Conceptos básicos del clúster, haz clic en Actualizar.

  5. En la lista Elegir versión de destino, selecciona la versión a la que deseas actualizar. La lista seleccionada solo contiene las versiones de parche más recientes.

  6. Haz clic en Actualizar.

Antes de que se actualice el clúster, se ejecutan las verificaciones previas para validar el estado del clúster y el estado del nodo. Si las comprobaciones previas se aprueban, se actualizará el clúster de usuarios. La actualización tarda alrededor de 30 minutos en completarse.

Para ver el estado de la actualización, haz clic en Mostrar detalles en la pestaña Detalles del clúster.

gcloud CLI

La actualización de un clúster de usuario requiere algunos cambios en el clúster de administrador. El comando gcloud container vmware clusters upgrade realiza automáticamente lo siguiente:

  • Inscribe el clúster de administrador en la API de GKE On-Prem si aún no está inscrito.

  • Descarga y, luego, implementa un paquete de componentes en el clúster de administrador. La versión de los componentes coincide con la que especificaste para la actualización. Estos componentes permiten que el clúster de administrador administre clústeres de usuario en esa versión.

Para actualizar un clúster de usuario, haz lo siguiente:

  1. Actualiza los componentes de la Google Cloud CLI:

    gcloud components update
    
  2. Solo para grupos de nodos de Ubuntu y COS: Si quieres actualizar solo el plano de control del clúster de usuario y dejar todos los grupos de nodos en la versión actual, cambia la política de actualización en el clúster:

    gcloud container vmware clusters update USER_CLUSTER_NAME \
      --project=PROJECT_ID \
      --location=REGION \
      --upgrade-policy control-plane-only=True
    

    Reemplaza lo siguiente:

    • USER_CLUSTER_NAME: Es el nombre del clúster de usuario que se actualizará.

    • PROJECT_ID: Es el ID del proyecto host de la flota del que es miembro el clúster del usuario. Este es el proyecto que especificaste cuando se creó el clúster. Si creaste el clúster con gkectl, este es el ID del proyecto en el campo gkeConnect.projectID del archivo de configuración del clúster.

    • REGION: Es la región de Google Cloud en la que se ejecuta la API de GKE On-Prem y se almacenan sus metadatos. Si creaste el clúster con un cliente de API de GKE On-Prem, esta es la región que seleccionaste cuando creaste el clúster. Si creaste el clúster con gkectl, esta es la región que especificaste cuando lo inscribiste en la API de GKE On-Prem.

  3. Obtén una lista de las versiones disponibles a las que puedes actualizar:

    gcloud container vmware clusters query-version-config \
      --cluster=USER_CLUSTER_NAME \
      --project=PROJECT_ID \
      --location=REGION
    

    El resultado del comando es similar al siguiente:

    versions:
    - version: 1.16.3-gke.45
    - version: 1.16.2-gke.28
    - version: 1.16.1-gke.45
    - version: 1.16.0-gke.669
    - version: 1.15.6-gke.25
    - version: 1.15.5-gke.41
    
    An Anthos version must be made available on the admin cluster ahead of the user
    cluster creation or upgrade. Versions annotated with isInstalled=true are
    installed on the admin cluster for the purpose of user cluster creation or
    upgrade whereas other version are released and will be available for upgrade
    once dependencies are resolved.
    
    To install the version in the admin cluster, run:
    $ gcloud container vmware admin-clusters update my-admin-cluster --required-platform-version=VERSION
    

    Puedes ignorar el mensaje después de la lista de versiones. No importa si la versión a la que actualizas está instalada en el clúster de administrador. El comando upgrade descarga y, luego, implementa un paquete de los componentes que coincide con la versión que especificas en el comando upgrade.

  4. Actualiza el clúster. Si ejecutaste el comando update para cambiar la política de actualización a control-plane-only=True, solo se actualizará el plano de control del clúster. De lo contrario, se actualizarán el plano de control del clúster y todos los grupos de nodos.

    gcloud container vmware clusters upgrade USER_CLUSTER_NAME \
      --project=PROJECT_ID \
      --location=REGION \
      --version=VERSION
    

    Reemplaza VERSION por la versión de Google Distributed Cloud a la que deseas actualizar. Especifica una versión del resultado del comando anterior. Te recomendamos que actualices a la versión más reciente del parche.

    El resultado del comando es similar al siguiente:

    Waiting for operation [projects/example-project-12345/locations/us-west1/operations/operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179] to complete.
    

    En el resultado de ejemplo, la cadena operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179 es el OPERATION_ID de la operación de larga duración. Para averiguar el estado de la operación, ejecuta el siguiente comando en otra ventana de terminal:

    gcloud container vmware operations describe OPERATION_ID \
      --project=PROJECT_ID \
      --location=REGION
    

Actualizar grupos de nodos

Si elegiste actualizar solo el plano de control del clúster de usuario, sigue los pasos que se indican a continuación para actualizar los grupos de nodos después de actualizar el plano de control del clúster de usuario:

  1. Obtén una lista de los grupos de nodos en el clúster de usuario:

    gcloud container vmware node-pools list
      --cluster=USER_CLUSTER_NAME  \
      --project=PROJECT_ID \
      --location=REGION
    
  2. Para cada grupo de nodos que quieras actualizar, ejecuta el siguiente comando:

    gcloud container vmware node-pools update NODE_POOL_NAME \
      --cluster=USER_CLUSTER_NAME  \
      --project=PROJECT_ID \
      --location=REGION \
      --version=VERSION
    

Terraform

  1. Actualiza los componentes de la Google Cloud CLI:

    gcloud components update
    
  2. Si aún no lo has hecho, inscribe el clúster de administrador en la API de GKE On-Prem. Una vez que el clúster esté inscrito en la API de GKE On-Prem, no necesitarás volver a realizar este paso.

  3. Obtén una lista de las versiones disponibles a las que puedes actualizar:

    gcloud container vmware clusters query-version-config \
      --cluster=USER_CLUSTER_NAME \
      --project=PROJECT_ID \
      --location=REGION
    

    Reemplaza lo siguiente:

    • USER_CLUSTER_NAME: El nombre del clúster de usuario.

    • PROJECT_ID: Es el ID del proyecto de flota en el que ese clúster de usuarios es miembro. Este es el proyecto que especificaste cuando se creó el clúster. Si creaste el clúster con gkectl, este es el ID del proyecto en el campo gkeConnect.projectID del archivo de configuración del clúster.

    • REGION: Es la región de Google Cloud en la que se ejecuta la API de GKE On-Prem y se almacenan sus metadatos. En el archivo main.tf que usaste para crear el clúster de usuarios, la región se encuentra en el campo location del recurso del clúster.

    El resultado del comando es similar al siguiente:

    versions:
    - version: 1.16.3-gke.45
    - version: 1.16.2-gke.28
    - version: 1.16.1-gke.45
    - version: 1.16.0-gke.669
    - version: 1.15.6-gke.25
    - version: 1.15.5-gke.41
    
    An Anthos version must be made available on the admin cluster ahead of the user
    cluster creation or upgrade. Versions annotated with isInstalled=true are
    installed on the admin cluster for the purpose of user cluster creation or
    upgrade whereas other version are released and will be available for upgrade
    once dependencies are resolved.
    
    To install the version in the admin cluster, run:
    $ gcloud container vmware admin-clusters update my-admin-cluster --required-platform-version=VERSION
    
  4. Descarga la versión nueva de los componentes y, luego, impleméntalos en el clúster de administración:

    gcloud container vmware admin-clusters update ADMIN_CLUSTER_NAME \
      --project=PROJECT_ID \
      --location=REGION \
      --required-platform-version=VERSION
    

    Con este comando, se descarga la versión de los componentes que especificas en --required-platform-version al clúster de administrador y, luego, se implementan los componentes. Estos componentes permiten que el clúster de administrador administre clústeres de usuario en esa versión.

  5. En el archivo main.tf que usaste para crear el clúster de usuario, cambia on_prem_version en el recurso del clúster a la versión nueva.

  6. Solo para grupos de nodos de Ubuntu y COS: Si deseas actualizar solo el plano de control del clúster de usuarios y dejar todos los grupos de nodos en la versión actual, agrega lo siguiente al recurso del clúster:

    upgrade_policy {
      control_plane_only = true
    }
    
  7. Inicializa y crea terraform plan:

    terraform init
    

    Terraform instala las bibliotecas necesarias, como el proveedor de Google Cloud.

  8. Revisa la configuración y realiza cambios si es necesario:

    terraform plan
    
  9. Aplica el plan de Terraform para crear el clúster de usuario:

    terraform apply
    

Actualizar grupos de nodos

Si elegiste actualizar solo el plano de control del clúster de usuario, sigue los pasos que se indican a continuación para actualizar grupos de nodos adicionales después de actualizar el plano de control del clúster de usuario:

  1. En main.tf, en el recurso de cada grupo de nodos que deseas actualizar, agrega lo siguiente:

    on_prem_version = "VERSION"
    

    Por ejemplo:

    resource "google_gkeonprem_vmware_node_pool" "nodepool-basic" {
    name = "my-nodepool"
    location = "us-west1"
    vmware_cluster = google_gkeonprem_vmware_cluster.default-basic.name
    config {
      replicas = 3
      image_type = "ubuntu_containerd"
      enable_load_balancer = true
    }
    on_prem_version = "1.16.0-gke.0"
    }
    
  2. Inicializa y crea terraform plan:

    terraform init
    
  3. Revisa la configuración y realiza cambios si es necesario:

    terraform plan
    
  4. Aplica el plan de Terraform para crear el clúster de usuario:

    terraform apply
    

Actualiza el clúster de administrador

Después de actualizar los clústeres de usuario, puedes actualizar el clúster de administrador.

Antes de comenzar:

  1. Si actualizas a la versión 1.13 o una posterior, primero debes registrar el clúster de administrador. Para ello, completa la sección gkeConnect en el archivo de configuración del clúster de administrador. Ejecuta el comando gkectl update cluster con los cambios del archivo de configuración.

  2. Asegúrate de que gkectl y los clústeres estén en la versión adecuado para una actualización y de haber descargado el paquete adecuado. La desviación de versión entre los clústeres de administrador y de usuario depende de la versión de Google Distributed Cloud. Para asegurarte de poder actualizar tu clúster de administrador, consulta Retraso de versiones de clústeres de administrador y de usuario.

  3. Asegúrate de que el campo bundlepath del archivo de configuración del clúster de administrador coincida con la ruta de acceso del paquete al que deseas actualizar.

    Si realizas algún otro cambio en los campos del archivo de configuración del clúster de administrador, estos cambios se ignoran durante la actualización. Para que esos cambios se apliquen, primero debes actualizar el clúster y, luego, ejecutar un clúster de actualización con los cambios en el archivo de configuración para realizar otros cambios en el clúster.

Ejecuta gkectl upgrade admin

Sigue los pasos que se indican en esta sección en la estación de trabajo del administrador. Existen dos variantes del comando gkectl upgrade admin:

  • Asíncrono:
    Con la variación asíncrona, el comando inicia la actualización y, luego, la completa. No es necesario que mires el resultado del comando durante toda la actualización. En su lugar, puedes ejecutar gkectl list admin y gkectl describe admin de forma periódica para verificar el progreso de la actualización. Para usar la variación asíncrona, incluye la marca --async en el comando.

    Requisitos para la actualización asíncrona:

    • Solo es compatible con clústeres de administrador de alta disponibilidad con la versión 1.29 o una posterior.
    • Todos los clústeres de usuario deben tener habilitado Controlplane V2.
  • Síncrona:
    Con la variación síncrona, el comando gkectl upgrade admin muestra mensajes de estado en la estación de trabajo del administrador a medida que avanza la actualización.

Actualización asíncrona

  1. En la estación de trabajo del administrador, inicia una actualización asíncrona:

    gkectl upgrade admin \
      --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
      --config ADMIN_CLUSTER_CONFIG_FILE \
      --async
    

    Reemplaza lo siguiente:

    • ADMIN_CLUSTER_KUBECONFIG: Es la ruta de acceso al archivo kubeconfig del clúster de administrador.

    • ADMIN_CLUSTER_CONFIG_FILE: la ruta al archivo de configuración del clúster de administrador.

    Se completa el comando anterior y puedes seguir usando tu estación de trabajo de administrador mientras se realiza la actualización.

    con gkectl upgrade admin, ejecuta el siguiente comando:

    gkectl upgrade admin -h
    
  2. Para ver el estado de la actualización, haz lo siguiente:

    gkectl list admin --kubeconfig ADMIN_CLUSTER_KUBECONFIG
    

    El resultado muestra un valor para el clúster STATE. Si el clúster aún está realizando la actualización, el valor de STATE es UPGRADING. Por ejemplo:

    NAME              STATE         AGE    VERSION
    gke-admin-test    UPGRADING     9h     1.30.100-gke.96
    

    Los valores posibles para STATE son RUNNING, UPGRADING, RECONCILING, ERROR y UNKNOWN.

  3. Para obtener más detalles sobre el progreso de la actualización y los eventos del clúster, haz lo siguiente:

    gkectl describe admin --kubeconfig ADMIN_CLUSTER_KUBECONFIG
    

    En el resultado, se muestra el recurso personalizado OnPremAdminCluster para el clúster de administrador especificado, que incluye el estado, las condiciones y los eventos del clúster.

    Registramos eventos para el inicio y el final de cada fase de actualización crítica.

    Resultado de ejemplo:

    Events:
    Type    Reason                             Age   From                             Message
    ----       ------                                  ----     ----                                -------
    Normal  ControlPlaneUpgradeStarted         40m   onprem-admin-cluster-controller  Creating or updating admin cluster API Controller
    Normal  ControlPlaneMachineUpgradeStarted  40m   onprem-admin-cluster-controller  Creating or updating control plane machine
    Normal  StatusChanged                      40m   onprem-admin-cluster-controller  OnPremAdminCluster status changed:
    - New ClusterState condition: UPGRADING
    - New Ready condition: False, CreateOrUpdateControlPlaneMachine, Creating or updating control plane machine
    Normal   StatusChanged      2m                onprem-admin-cluster-controller  OnPremAdminCluster status changed:
    - New ClusterState condition: RUNNING
    - New Ready condition: True, ClusterRunning, Cluster is running
    
  4. Cuando se complete la actualización, gkectl list admin mostrará un STATUS de RUNNING:

    NAME              STATE         AGE    VERSION
    gke-admin-test    RUNNING       9h     1.30.100-gke.96
    

    Además, cuando se completa la actualización, gkectl describe admin muestra un campo Last GKE On Prem Version en Status. Por ejemplo:

    Status:
      Cluster State:  RUNNING
      Last GKE On Prem Version:  1.30.0-gke.1
    

Soluciona problemas de actualización asíncrona

Para una actualización asíncrona, la duración del tiempo de espera se basa en la cantidad de nodos del clúster. Si la actualización tarda más que la duración del tiempo de espera, el estado del clúster cambia de UPGRADING a ERROR, con un evento que indica que se agotó el tiempo de espera de la operación de actualización. Ten en cuenta que el estado ERROR aquí significa que la actualización está tardando más de lo esperado, pero no se cerró. El controlador continúa con la conciliación y vuelve a intentar la operación. Cuando se bloquea o falla una actualización, puedes ejecutar gkectl diagnose para verificar problemas comunes del clúster. Según el resultado, puedes decidir si realizar una corrección manual o comunicarte con el equipo de asistencia de Google Cloud para obtener más ayuda.

Actualización síncrona

  1. Ejecuta el siguiente comando:

    gkectl upgrade admin \
      --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
      --config ADMIN_CLUSTER_CONFIG_FILE \
    

    Reemplaza lo siguiente:

    • ADMIN_CLUSTER_KUBECONFIG es la ruta al archivo kubeconfig del clúster de administrador.

    • ADMIN_CLUSTER_CONFIG_FILE: la ruta al archivo de configuración del clúster de administrador.

    El comando gkectl upgrade ejecuta comprobaciones preliminares. Si las comprobaciones previas fallan, el comando se bloquea. Debes corregir las fallas o usar la marca --skip-preflight-check-blocking con el comando para desbloquearlo.

  2. Si actualizas a la versión 1.14.0 o posterior, se genera un nuevo archivo kubeconfig para el clúster de administrador que reemplaza cualquier archivo existente. Para ver los detalles del clúster en el archivo, ejecuta el siguiente comando:

    kubectl config view --kubeconfig ADMIN_CLUSTER_KUBECONFIG

Quita el paquete completo

Si descargaste un paquete completo y ejecutaste con éxito los comandos gkectl prepare y gkectl upgrade admin, deberías borrar el paquete completo para ahorrar espacio en el disco en la estación de trabajo de administrador. Ejecuta el siguiente comando para borrar el paquete completo:

rm /var/lib/gke/bundles/gke-onprem-vsphere-${TARGET_VERSION}-full.tgz

Reanuda la actualización de un clúster de administrador

Si la actualización de un clúster de administrador se interrumpe o falla, la actualización se puede reanudar si el punto de control del clúster de administrador contiene el estado necesario para restablecer el estado antes de la interrupción.

Advertencia: No repares la instancia principal de administrador con gkectl repair admin-master después de un intento de actualización con errores. Esto hará que el clúster de administrador entre en un estado incorrecto.

Lleve a cabo los pasos siguientes:

  1. Verifica si el plano de control del administrador está en buen estado antes de comenzar el intento de actualización inicial. Consulta Diagnostica problemas de clústeres. Como se explica en ese tema, ejecuta el comando gkectl diagnose cluster para el clúster de administrador.

  2. Si el plano de control del administrador está en mal estado antes del intento de actualización inicial, repara el plano de control del administrador con el comando gkectl repair admin-master.

  3. Cuando vuelvas a ejecutar el comando de actualización después de que una actualización se interrumpa o falle, usa el mismo paquete y versión de destino como lo hiciste en el intento de actualización anterior.

Cuando vuelves a ejecutar el comando de actualización, la actualización reanudada recrea el estado del clúster de administrador desde el punto de control y vuelve a ejecutar toda la actualización. A partir de la versión 1.12.0, si el plano de control del administrador está en mal estado, el proceso de actualización se actualizará directamente a la versión de destino sin intentar restablecer el clúster de administrador en la versión de origen antes de continuar con la actualización.

La actualización se reanudará desde el punto en que falló o salió si el punto de control del clúster de administrador está disponible. Si el punto de control no está disponible, la actualización recurrirá al plano de control del administrador y, por lo tanto, este debe estar en buen estado para continuar con la actualización. Después de una actualización exitosa, el punto de control se vuelve a generar.

Si gkectl se cierra de forma inesperada durante una actualización del clúster de administrador, el clúster de tipo no se limpia. Antes de volver a ejecutar el comando de actualización para reanudar la actualización, borra el clúster de tipo:

docker stop gkectl-control-plane && docker rm gkectl-control-plane

Después de borrar el clúster de categoría, vuelve a ejecutar el comando de actualización.

Revierte una estación de trabajo de administrador después de una actualización

Puedes revertir la estación de trabajo de administrador a la versión que se usó antes de la actualización.

Durante la actualización, gkeadm registra la versión antes de que se actualice en el archivo de información de salida. Durante la reversión, gkeadm usa la versión que se muestra para descargar el archivo anterior.

Para revertir la estación de trabajo de administrador a la versión anterior, sigue estos pasos:

gkeadm rollback admin-workstation --config=AW_CONFIG_FILE

Puedes omitir --config=AW_CONFIG_FILE si el archivo de configuración de la estación de trabajo de administrador es admin-ws-config.yaml predeterminado. De lo contrario, reemplaza AW_CONFIG_FILE por la ruta de acceso al archivo de configuración de la estación de trabajo de administrador.

El comando de reversión realiza estos pasos:

  1. Descarga la versión de reversión de gkeadm.
  2. Crea una copia de seguridad del directorio principal de la estación de trabajo de administrador actual.
  3. Crea una estación de trabajo de administrador nueva con la versión de reversión de gkeadm.
  4. Borra la estación de trabajo de administrador original.

Instala el paquete con una versión diferente para la actualización

Si actualizas la estación de trabajo, se instalará un paquete con la versión correspondiente para actualizar los clústeres. Si deseas una versión diferente, sigue estos pasos a fin de instalar un paquete para TARGET_VERSION, que es la versión a la que deseas actualizar.

  1. Para comprobar las versiones actuales de los clústeres y de gkectl, ejecuta este comando. Usa la marca --details/-d para obtener información más detallada.

    gkectl version --kubeconfig ADMIN_CLUSTER_KUBECONFIG --details
    

    En el resultado, se proporciona información sobre las versiones de tu clúster.

  2. Según los resultados que obtengas, busca los siguientes problemas y corrígelos según sea necesario.

    • Si la versión actual del clúster de administrador es más de una versión secundaria inferior a TARGET_VERSION, actualiza todos los clústeres para que sean una versión secundaria anterior a TARGET_VERSION.

    • Si la versión gkectl es anterior a la 1.11 y deseas actualizar a la versión 1.12.x, tendrás que realizar varias actualizaciones. Actualiza una versión secundaria a la vez hasta llegar a la versión 1.11.x y, luego, continúa con las instrucciones de este tema.

    • Si la versión de gkectl es anterior a TARGET_VERSION, actualiza la estación de trabajo de administrador a TARGET_VERSION.

  3. Una vez que hayas determinado que tus versiones de gkectl y los clústeres son adecuadas para una actualización, descarga el paquete.

    Verifica si el paquete comprimido ya existe en la estación de trabajo de administrador.

    stat /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz

    Si el paquete no está en la estación de trabajo de administrador, descárgalo.

    gcloud storage cp gs://gke-on-prem-release/gke-onprem-bundle/TARGET_VERSION/gke-onprem-vsphere-TARGET_VERSION.tgz /var/lib/gke/bundles/
    

  4. Instala el paquete.

    gkectl prepare --bundle-path /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz --kubeconfig ADMIN_CLUSTER_KUBECONFIG
    

    Reemplaza ADMIN_CLUSTER_KUBECONFIG por la ruta de acceso de tu archivo kubeconfig. Puedes omitir esta marca si el archivo se encuentra en el directorio actual y tiene el nombre kubeconfig.

  5. Enumera las versiones de clúster disponibles y asegúrate de que la versión de destino esté incluida en las versiones de clúster de usuario disponibles.

    gkectl version --kubeconfig ADMIN_CLUSTER_KUBECONFIG --details

Ahora puedes crear un clúster de usuario en la versión de destino o actualizar un clúster de usuario a la versión de destino.

Soluciona problemas del proceso de actualización

Si tienes problemas cuando sigues el proceso de actualización recomendado, sigue estas recomendaciones para resolverlos. Estas sugerencias suponen que has comenzado con una configuración de la versión 1.11.x y que estás realizando el proceso de actualización recomendado.

Consulta también: Soluciona problemas de creación y actualización de clústeres

Soluciona un problema de actualización del clúster de usuario

Supongamos que encuentras un problema con la versión de actualización cuando actualizas un clúster de usuario. Determinas a partir de Atención al cliente de Google que el problema se solucionará en una próxima versión de parche. Puedes continuar de la siguiente manera:

  1. Continúa usando la versión actual para la producción.
  2. Prueba la versión del parche en un clúster que no sea de producción cuando se lance
  3. Actualiza todos los clústeres de usuario de producción a la versión de actualización de parche cuando estés seguro.
  4. Actualiza el clúster de administrador a la versión de actualización de parches.

Soluciona problemas de actualización de un clúster de administrador

Si surge algún problema cuando actualizas el clúster de administrador, debes comunicarte con la Atención al cliente de Google para resolverlo.

Mientras tanto, con el nuevo flujo de actualización, todavía puedes beneficiarse de las nuevas funciones del clúster de usuario sin que se bloquee la actualización del clúster de administrador, lo que te permite reducir la frecuencia de actualización del clúster de administrador, si así lo desea. El proceso de actualización puede proceder de la siguiente manera:

  1. Actualiza los clústeres de usuario de producción a la versión 1.12.x.
  2. Mantén la versión anterior del clúster de administrador y continúa recibiendo parches de seguridad.
  3. Prueba la actualización de los clústeres de administrador de 1.11.x a 1.12.x en un entorno de prueba y, luego, informar los problemas si los hay
  4. Si tu problema se resuelve con una versión de parche 1.12.x, puedes elegir actualizar el clúster de administrador de producción a esta versión de parche si lo deseas.

Problemas conocidos de versiones recientes

Los siguientes problemas conocidos podrían afectar las actualizaciones si estás actualizando desde la versión 1.7 o posterior.

Consulta también: Problemas conocidos

La actualización de la estación de trabajo de administrador puede fallar si el disco de datos está casi lleno

Si actualizas la estación de trabajo de administrador con el comando gkectl upgrade admin-workstation, la actualización podría fallar si el disco de datos está casi lleno, ya que el sistema intenta crear una copia de seguridad de la estación de trabajo de administrador actual de forma local mientras se actualiza a una nueva estación de trabajo de administrador. Si no puedes liberar suficiente espacio en el disco de datos, usa el comando gkectl upgrade admin-workstation con la marca adicional --backup-to-local=false para evitar realizar una copia de seguridad local de la estación de trabajo de administrador actual.

Interrupción de las cargas de trabajo con PodDisruptionBudgets

Por el momento, la actualización de los clústeres puede causar interrupciones o tiempo de inactividad para las cargas de trabajo que usan PodDisruptionBudgets (PDB).

El proceso de actualización de los nodos falla

Si tienes objetos PodDisruptionBudget configurados que no pueden permitir interrupciones adicionales, es posible que las actualizaciones de los nodos no se actualicen a la versión del plano de control después de varios intentos. Para evitar esta falla, te recomendamos que escales verticalmente la Deployment o la HorizontalPodAutoscaler a fin de permitir que el nodo se desvíe y aún respete la configuración de PodDisruptionBudget.

Para ver todos los objetos PodDisruptionBudget que no permiten ninguna interrupción, haz lo siguiente:

kubectl get poddisruptionbudget --all-namespaces -o jsonpath='{range .items[?(@.status.disruptionsAllowed==0)]}{.metadata.name}/{.metadata.namespace}{"\n"}{end}'

Apéndice

Acerca de las reglas de DRS de VMware habilitadas en la versión 1.1.0-gke.6

A partir de la versión 1.1.0-gke.6, Google Distributed Cloud crea automáticamente reglas de antiafinidad de Distributed Resource Scheduler (DRS) de VMware para los nodos del clúster de usuario, de modo que se distribuyan en al menos tres hosts físicos de tu centro de datos. A partir de la versión 1.1.0-gke.6, esta función se habilita de forma automática para clústeres nuevos y existentes.

Antes de realizar la actualización, asegúrate de que el entorno de vSphere cumpla con las siguientes condiciones:

  • DRS de VMware debe estar habilitado. Para el DRS de VMware, se requiere la edición de licencia de vSphere Enterprise Plus. Para aprender a habilitar el DRS, consulta Habilita el DRS de VMware en un clúster.

  • El nombre de usuario de vSphere que se proporciona en el archivo de configuración de credenciales tiene el permiso Host.Inventory.EditCluster.

  • Debe haber al menos tres hosts físicos disponibles.

Si el entorno de vSphere no cumple con las condiciones anteriores, aún puedes realizar la actualización. Pero para actualizar un clúster de usuario de 1.3.x a 1.4.x, debes inhabilitar los grupos antiafinidad. Para obtener más información, consulta este problema conocido en las notas de la versión de Google Distributed Cloud.

Información sobre el tiempo de inactividad durante las actualizaciones

Recurso Descripción
Clúster de administrador

Cuando un clúster de administrador está inactivo, los planos de control y las cargas de trabajo en los clústeres de usuario continúan ejecutándose, a menos que se vean afectados por una falla que causó el tiempo de inactividad.

Plano de control del clúster de usuario

Por lo general, no es probable que se produzcan tiempos de inactividad perceptibles en los planos de control del clúster de usuario. Sin embargo, las conexiones de larga duración al servidor de la API de Kubernetes podrían fallar y tendrían que restablecerse. En esos casos, el emisor de la API debe volver a intentarlo hasta que se establezca una conexión. En el peor de los casos, puede haber hasta un minuto de tiempo de inactividad durante una actualización.

Nodos del clúster de usuario

Si una actualización requiere un cambio en los nodos del clúster de usuario, Google Distributed Cloud los vuelve a crear de forma progresiva y reprograma los Pods que se ejecutan en estos nodos. Puedes evitar el impacto en tus cargas de trabajo; para ello, configura PodDisruptionBudgets y reglas de antiafinidad adecuados.

Vuelve a crear un archivo de información si falta

Si falta el archivo de información de salida para tu estación de trabajo de administrador, debes volver a crear este archivo para poder continuar con la actualización. Este archivo se creó cuando creaste la estación de trabajo inicialmente y, si desde entonces realizaste una actualización, se actualizó con información nueva.

El archivo de información de salida tiene este formato:

Admin workstation version: GKEADM_VERSION
Created using gkeadm version: GKEADM_VERSION
VM name: ADMIN_WS_NAME
IP: ADMIN_WS_IP
SSH key used: FULL_PATH_TO_ADMIN_WS_SSH_KEY
To access your admin workstation:
ssh -i FULL-PATH-TO-ADMIN-WS-SSH-KEY ubuntu@ADMIN-WS-IP

A continuación, se muestra un archivo de información de salida de ejemplo:

Admin workstation version: v1.10.3-gke.49
Created using gkeadm version: v1.10.3-gke.49
VM name: admin-ws-janedoe
IP: 172.16.91.21
SSH key used: /usr/local/google/home/janedoe/.ssh/gke-admin-workstation
Upgraded from (rollback version): v1.10.0-gke.194
To access your admin workstation:
ssh -i /usr/local/google/home/janedoe/.ssh/gke-admin-workstation ubuntu@172.16.91.21

Crea el archivo en un editor y sustituye los parámetros que correspondan. Guarda el archivo con un nombre de archivo que sea igual al nombre de la VM en el directorio desde el que se ejecuta gkeadm. Por ejemplo, si el nombre de la VM es admin-ws-janedoe, guarda el archivo como admin-ws-janedoe.

¿Qué sigue?