En este documento, se explica cómo actualizar clústeres y grupos de nodos en Google Distributed Cloud. En este documento, se proporcionan los pasos para actualizar la estación de trabajo de administrador, los clústeres de usuario y los clústeres de administrador. En el caso de los clústeres de usuario, en este documento, se proporcionan los pasos para actualizar el plano de control y los grupos de nodos al mismo tiempo o por separado.
Antes de continuar, te recomendamos que revises la siguiente documentación:
Descripción general de la actualización
Entre otros aspectos, en este documento se describen los sesgos de versiones y las reglas de versiones compatibles para las actualizaciones, que cambiaron en la versión 1.28 y en las posteriores.Prácticas recomendadas para la actualización
En este documento, se proporcionan listas de tareas y prácticas recomendadas para actualizar clústeres.
Revisa las reglas de firewall
En la versión 1.29 y posteriores, las comprobaciones preliminares del servidor están habilitadas de forma predeterminada. Las comprobaciones preliminares del servidor requieren reglas de firewall adicionales. En Reglas de firewall para clústeres de administrador, busca “Verificaciones previas” y asegúrate de que estén configuradas todas las reglas de firewall obligatorias.
Con las comprobaciones preliminares del servidor, cuando actualizas un clúster de usuario con gkectl
, las comprobaciones preliminares se ejecutan en el clúster de administrador en lugar de hacerlo de forma local en la estación de trabajo de administrador. Las comprobaciones preliminares del servidor también se ejecutan en el clúster de administrador cuando usas la consola de Google Cloud, Google Cloud CLI o Terraform para actualizar un clúster.
Cuando actualizas un clúster de administrador, Google Distributed Cloud implementa un clúster de Kubernetes en Docker (similar) a fin de alojar de forma temporal los controladores de Kubernetes necesarios para actualizar el clúster de administrador. Este clúster transitorio se denomina clúster de arranque. Las comprobaciones preliminares del servidor se ejecutan en el clúster de arranque cuando actualizas un clúster de administrador.
Requisitos de la API de Google y de IAM
Para actualizar un clúster a la versión 1.28 y versiones posteriores, debes habilitar kubernetesmetadata.googleapis.com
y otorgar la función de IAM kubernetesmetadata.publisher
a la cuenta de servicio de supervisión de registros. Estos cambios son necesarios para usar Cloud Monitoring.
Habilitar
kubernetesmetadata.googleapis.com
:gcloud services enable --project PROJECT_ID \ kubernetesmetadata.googleapis.com
Reemplaza
PROJECT_ID
por el ID del proyecto host de flota en el que es miembro el clúster de usuario. Este es el proyecto que especificaste cuando se creó el clúster. Si creaste el clúster congkectl
, este es el ID del proyecto en el campogkeConnect.projectID
del archivo de configuración del clúster.Si tu organización configuró una lista de entidades permitidas que permite que el tráfico de las APIs de Google y otras direcciones pase a través de tu servidor proxy, agrega
kubernetesmetadata.googleapis.com
a la lista de entidades permitidas.Otorga la función
kubernetesmetadata.publisher
a la cuenta de servicio de supervisión de registros:gcloud projects add-iam-policy-binding PROJECT_ID \ --member "serviceAccount:SERVICE_ACCOUNT_EMAIL" \ --role "roles/kubernetesmetadata.publisher"
Reemplaza SERVICE_ACCOUNT_EMAIL por la dirección de correo electrónico de la cuenta de servicio de supervisión de registros.
Requisitos de IAM para actualizar clústeres de usuario
Omite esta sección si planeas usar gkectl
para la actualización del clúster de usuario.
Si deseas usar la consola de Google Cloud, Google Cloud CLI o Terraform para
actualizar un clúster de usuario y no eres propietario del proyecto, se te debe otorgar la
función de Identity and Access Management roles/gkeonprem.admin
en el proyecto de Google Cloud en el que
se creó el clúster. Para obtener detalles sobre los permisos incluidos en esta función, consulta Funciones de GKE On-Prem en la documentación de IAM.
Para usar la consola a fin de actualizar el clúster, como mínimo, necesitas lo siguiente:
roles/container.viewer
. Esta función permite a los usuarios ver la página de clústeres de GKE y otros recursos de contenedores en la consola. Para obtener más detalles sobre los permisos incluidos en esta función o para otorgar una función con permisos de lectura y escritura, consulta Funciones de Kubernetes Engine en la documentación de IAM.roles/gkehub.viewer
. Esta función permite a los usuarios ver clústeres en la consola. Para obtener detalles sobre los permisos incluidos en esta función o para otorgar una función con permisos de lectura y escritura, consulta Funciones de GKE Hub en la documentación de IAM.
Realiza cambios en la configuración antes o después de una actualización.
Si necesitas realizar cambios de configuración en los clústeres, actualiza el clúster antes o después de la actualización. El único cambio en la configuración del clúster para una actualización debe ser la versión. Según la versión y el tipo del clúster, otros cambios de configuración se ignoran de forma silenciosa o hacen que la actualización falle. Para obtener más información, consulta Cómo quitar los cambios no admitidos para desbloquear la actualización.
Actualiza tu estación de trabajo de administrador
Debes actualizar la estación de trabajo de administrador si planeas usar gkectl
para actualizar un clúster de usuario.
Si planeas usar la consola, gcloud CLI o Terraform para actualizar un clúster de usuario, puedes omitir la actualización de la estación de trabajo de administrador por el momento. Sin embargo, deberás actualizar la estación de trabajo de administrador cuando todo esté listo para actualizar el clúster de administrador, ya que solo gkectl
admite actualizaciones del clúster de administrador.
La forma en que actualizas la estación de trabajo de administrador depende de cómo la creaste: gkeadm o user-mmanaged.
gkeadm
Ubica los archivos requeridos
Antes de crear la estación de trabajo de administrador, completaste un archivo de configuración de la estación de trabajo de administrador que generó gkeadm create config
. El nombre predeterminado de este archivo es admin-ws-config.yaml
.
Además, tu estación de trabajo tiene un archivo de información. El nombre predeterminado de este archivo es el mismo que el nombre de la estación de trabajo del administrador.
Localiza el archivo de configuración de la estación de trabajo del administrador y el archivo de información. Los necesitas para realizar los pasos de la actualización. Si estos archivos se encuentran en tu directorio actual y tienen sus nombres predeterminados, no tendrás que especificarlos cuando ejecutes los comandos de actualización. Si estos archivos están en otro directorio o si cambiaste los nombres de archivo, debes especificarlos mediante las marcas --config
y --info-file
.
Si falta tu archivo de información de salida, puedes volver a crearlo. Consulta Cómo volver a crear un archivo de información si falta.
Actualizar
Para actualizar la estación de trabajo de administrador, sigue estos pasos:
Descargar
gkeadm
:gkeadm upgrade gkeadm --target-version TARGET_VERSION
Reemplaza TARGET_VERSION por la versión de destino de la actualización. Debes especificar un número de versión completo con el formato
X.Y.Z-gke.N.
. Para obtener una lista de las versiones de Google Distributed Cloud, consulta Historial de versiones.Actualiza la estación de trabajo de administrador:
gkeadm upgrade admin-workstation --config AW_CONFIG_FILE \ --info-file INFO_FILE
Reemplaza lo siguiente:
AW_CONFIG_FILE
es la ruta del archivo de configuración de la estación de trabajo del administrador. Puedes omitir esta marca si el archivo se encuentra en el directorio actual y tiene el nombreadmin-ws-config.yaml
.INFO_FILE
es la ruta del archivo de información. Puedes omitir esta marca si el archivo se encuentra en tu directorio actual. El nombre predeterminado de este archivo es el mismo que el nombre de la estación de trabajo del administrador.
Administrada por el usuario
En la estación de trabajo de administrador, navega a un directorio en el que desees instalar una versión nueva de gkectl
.
Descargar gkectl
:
gsutil cp gs://gke-on-prem-release/gkectl/VERSION/gkectl ./ chmod +x gkectl
Reemplaza VERSION por la versión de destino de la actualización. Por ejemplo: 1.29.100-gke.248
.
Descarga el paquete de Google Distributed Cloud. Asegúrate de que la versión coincida con la que usaste para descargar gkectl
:
gsutil cp gs://gke-on-prem-release/gke-onprem-bundle/VERSION/gke-onprem-vsphere-VERSION.tgz ./
Revisa las versiones disponibles para las actualizaciones de los clústeres
Ejecuta el siguiente comando a fin de ver qué versiones están disponibles para la actualización:
gkectl version --kubeconfig ADMIN_CLUSTER_KUBECONFIG
En el resultado, se muestra la versión actual y las versiones disponibles para actualizar.
Si planeas usar la consola, gcloud CLI o
Terraform para la actualización, la versión tarda entre 7 y 10 días después del lanzamiento en estar
disponible en la API de GKE On-Prem en todas las regiones de Google Cloud.
La consola solo muestra las versiones disponibles para la actualización del clúster de usuario. Los pasos para actualizar un clúster de usuario con
gcloud CLI o Terraform incluyen un paso para ejecutar
gcloud container vmware clusters query-version-config
y obtener las versiones disponibles de la actualización.
Actualiza un clúster de usuario
Puedes usar gkectl
, la consola, gcloud CLI o Terraform para actualizar un clúster de usuario. Si deseas obtener información sobre cómo decidir qué herramienta usar, consulta Elige una herramienta para actualizar clústeres de usuario.
gkectl
Prepárate para actualizar un clúster de usuario
Sigue estos pasos en la estación de trabajo de administrador:
Ejecuta
gkectl prepare
para importar imágenes de SO a vSphere:gkectl prepare \ --bundle-path /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Si tu clúster tiene un grupo de nodos de Windows, ejecuta
gkectl prepare windows
y actualiza el campoosImage
para el grupo de nodos. Para obtener instrucciones detalladas, consulta Actualiza el clúster de usuario con grupos de nodos de Windows.En el archivo de configuración del clúster de usuario, configura
gkeOnPremVersion
como la versión de destino de la actualización.Solo grupos de nodos de Ubuntu y COS: especifica los grupos de nodos que deseas actualizar. La actualización de grupos de nodos por separado del plano de control es compatible con los grupos de nodos de Ubuntu y COS, pero no con los grupos de nodos de Windows.
En el archivo de configuración del clúster de usuario, indica qué grupos de nodos deseas actualizar de la siguiente manera:
Para cada grupo de nodos que deseas actualizar, quita el campo
nodePools.nodePool[i].gkeOnPremVersion
o configúralo como la cadena vacía.Para cada grupo de nodos que no quieras actualizar, configura
nodePools.nodePool[i].gkeOnPremVersion
en la versión actual.
Por ejemplo, supongamos que el clúster de usuario se encuentra en la versión 1.15.5-gke.41 y tiene dos grupos de nodos:
pool-1
ypool-2
. Supongamos también que deseas actualizar el plano de control ypool-1
a 1.16.3-gke.45, pero deseas quepool-2
permanezca en la versión 1.15.5-gke.41. La siguiente parte de un archivo de configuración de clúster de usuario muestra cómo especificar este ejemplo:gkeOnPremVersion: 1.16.3-gke.45 nodePools: - name: pool-1 gkeOnPremVersion: "" cpus: 4 memoryMB: 8192 replicas: 3 osImageType: ubuntu_containerd - name: pool-2 gkeOnPremVersion: 1.15.5-gke.41 cpus: 4 memoryMB: 8192 replicas: 5 osImageType: ubuntu_containerd
Ejecutar comprobaciones previas
Cuando actualizas a la versión 1.29 y posteriores, puedes ejecutar las comprobaciones preliminares antes de actualizar un clúster de usuario:
gkectl upgrade cluster \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG \ --dry-run
Con la marca --dry-run
, gkectl upgrade cluster
ejecuta las comprobaciones preliminares, pero no inicia el proceso de actualización. Aunque las versiones anteriores de Google Distributed Cloud ejecutan comprobaciones preliminares, no se pueden ejecutar por separado de la actualización. Si agregas la marca --dry-run
, puedes encontrar y solucionar cualquier problema que encuentren en las comprobaciones preliminares con el clúster de usuario antes de la actualización.
Ejecución gkectl upgrade cluster
Hay dos variaciones del comando gkectl upgrade cluster
:
Asíncrona: (recomendado)
. Con la variación asíncrona, el comando inicia la actualización y, luego, se completa. No necesitas mirar el resultado del comando durante toda la actualización. En su lugar, puedes verificar periódicamente el progreso de la actualización si ejecutasgkectl list clusters
ygkectl describe clusters
. Para usar la variación asíncrona, incluye la marca--async
en el comando.Síncrona:
Con la variación síncrona, el comandogkectl upgrade cluster
genera mensajes de estado en la estación de trabajo de administrador a medida que avanza la actualización.
Actualización asíncrona
Omite este paso si estás actualizando a una versión posterior a la 1.16.
Si usas credenciales preparadas y un registro privado para el clúster de usuario, asegúrate de que la credencial de registro privado esté preparada antes de actualizar el clúster de usuario. Para obtener información sobre cómo preparar la credencial de registro privado, consulta Configura credenciales preparadas para clústeres de usuario.
En la estación de trabajo de administrador, inicia una actualización asíncrona:
gkectl upgrade cluster \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG \ --async
Se completa el comando anterior y puedes seguir usando la estación de trabajo de administrador mientras la actualización está en curso.
Para ver el estado de la actualización, haz lo siguiente:
gkectl list clusters --kubeconfig ADMIN_CLUSTER_KUBECONFIG
El resultado muestra un valor para el clúster
STATE
. Si el clúster aún se está actualizando, el valor deSTATE
esUPGRADING
. Por ejemplo:NAMESPACE NAME READY STATE AGE VERSION my-uc-gkeonprem-mgmt my-uc False UPGRADING 9h 1.29.0-gke.1
Los valores posibles para
STATE
sonPROVISIONING
,UPGRADING
,DELETING
,UPDATING
,RUNNING
,RECONCILING
,ERROR
yUNKNOWN
.Para obtener más detalles sobre el progreso de la actualización y los eventos del clúster, haz lo siguiente:
gkectl describe clusters --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --cluster USER_CLUSTER_NAME -v 5
El resultado muestra el recurso personalizado OnPremUserCluster para el clúster de usuario especificado, que incluye el estado del clúster, las condiciones y los eventos.
Registramos eventos del inicio y el final de cada fase de actualización crítica, incluidos los siguientes:
- ControlPlaneUpgrade
- MasterNodeUpgrade
- AddonsUpgrade
- NodePoolsUpgrade
Resultado de ejemplo:
Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal NodePoolsUpgradeStarted 22m onprem-user-cluster-controller Creating or updating node pools: pool-2: Creating or updating node pool Normal AddonsUpgradeStarted 22m onprem-user-cluster-controller Creating or updating addon workloads Normal ControlPlaneUpgradeStarted 25m onprem-user-cluster-controller Creating or updating cluster control plane workloads: deploying user-kube-apiserver-base, ...: 14/15 pods are ready Normal ControlPlaneUpgradeFinished 23m onprem-user-cluster-controller Control plane is running
Cuando se completa la actualización,
gkectl list clusters
muestra unSTATUS
deRUNNING
:NAMESPACE NAME READY STATE AGE VERSION my-uc-gkeonprem-mgmt my-uc True RUNNING 9h 1.29.0-gke.1
Además, cuando se completa la actualización,
gkectl describe clusters
muestra un campoLast GKE On Prem Version
enStatus
. Por ejemplo:Status: Cluster State: RUNNING Last GKE On Prem Version: 1.29.0-gke.1
Soluciona problemas de la actualización asíncrona
Para una actualización asíncrona, la duración del tiempo de espera se basa en la cantidad de nodos en el clúster. Si la actualización tarda más que la duración del tiempo de espera, el estado del clúster cambia de UPGRADING
a ERROR
, con un evento que dice que se agotó el tiempo de espera de la operación de actualización. Ten en cuenta que el estado ERROR
aquí significa que la actualización está tardando más de lo esperado, pero no se
finalizó. El controlador continúa con la conciliación y vuelve a intentar la operación.
Por lo general, el tiempo de espera es el resultado de un interbloqueo causado por un PodDisruptionBudget (PDB). En ese caso, los Pods no se pueden expulsar de los nodos antiguos, y estos no se pueden vaciar. Si la expulsión del Pod toma más de 10 minutos, escribimos un evento en el objeto OnPremUserCluster. Para capturar el evento, ejecuta gkectl describe clusters
. Luego, puedes ajustar el PDB para permitir que el nodo se desvíe. Después de eso, la actualización puede continuar y, al final, completarse.
Ejemplo de evento:
Warning PodEvictionTooLong 96s (x2 over 4m7s) onprem-user-cluster-controller Waiting too long(>10m0.00000003s) for (kube-system/coredns-856d6dbfdf-dl6nz) eviction.
Además, cuando se bloquea o falla una actualización, puedes ejecutar gkectl diagnose
para verificar problemas comunes del clúster. En función del resultado, puedes decidir si quieres realizar una corrección manual o comunicarte con el equipo de asistencia al cliente de Anthos para obtener más ayuda.
Actualización síncrona
El comando gkectl upgrade
ejecuta comprobaciones preliminares. Si las comprobaciones preliminares fallan, el comando se bloquea. Debes corregir las fallas o usar la marca --skip-preflight-check-blocking
. Solo debes omitir las comprobaciones preliminares si tienes la certeza de que no hay fallas críticas.
Continúa con estos pasos en la estación de trabajo de administrador:
Omite este paso si estás actualizando a una versión posterior a la 1.16.
Si usas credenciales preparadas y un registro privado para el clúster de usuario, asegúrate de que la credencial de registro privado esté preparada antes de actualizar el clúster de usuario. Para obtener información sobre cómo preparar la credencial de registro privado, consulta Configura credenciales preparadas para clústeres de usuario.
Actualiza el clúster:
gkectl upgrade cluster \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG_FILE
Si actualizas a la versión 1.14.0 o superior, se genera un archivo kubeconfig nuevo para el clúster de usuario que reemplaza cualquier archivo existente. Para ver detalles del clúster en el archivo, ejecuta el siguiente comando:
kubectl config view --kubeconfig USER_CLUSTER_KUBECONFIG
Actualiza grupos de nodos adicionales
Si solo actualizaste el plano de control del clúster de usuario o actualizaste el plano de control y algunos, pero no todos los grupos de nodos, sigue estos pasos para actualizar los grupos de nodos:
Edita el archivo de configuración del clúster de usuario. Para cada grupo de nodos que deseas actualizar, quita el campo
nodePools.nodePool[i].gkeOnPremVersion
o configúralo en la string vacía, como se muestra en el siguiente ejemplo:gkeOnPremVersion: 1.16.3-gke.45 nodePools: - name: pool-1 gkeOnPremVersion: "" cpus: 4 memoryMB: 8192 replicas: 3 osImageType: ubuntu_containerd - name: pool-2 gkeOnPremVersion: "" cpus: 4 memoryMB: 8192 replicas: 5 osImageType: ubuntu_containerd
Ejecuta
gkectl update cluster
para aplicar el cambio:gkectl update cluster --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG
Reemplaza lo siguiente:
ADMIN_CLUSTER_KUBECONFIG
: Es la ruta de acceso del archivo kubeconfig del clúster de administrador.USER_CLUSTER_CONFIG
es la ruta de acceso del archivo de configuración del clúster de usuario.
Si tienes un problema después de actualizar un grupo de nodos, puedes revertir a la versión anterior. Para obtener más información, consulta Revierte un grupo de nodos después de una actualización.
Reanuda una actualización
Si se interrumpe la actualización de un clúster de usuario, puedes reanudarla ejecutando el mismo comando de actualización con la marca --skip-validation-all
:
gkectl upgrade cluster \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG_FILE \ --skip-validation-all
Console
Actualizar un clúster de usuario requiere algunos cambios en el clúster de administrador. La consola hace lo siguiente automáticamente:
Inscribe el clúster de administrador en la API de GKE On-Prem si aún no está inscrito.
Descarga e implementa un paquete de componentes en el clúster de administrador. Que la versión de los componentes coincida con la versión que especifiques para la actualización. Estos componentes permiten que el clúster de administrador administre los clústeres de usuario en esa versión.
Para actualizar un clúster de usuario, haz lo siguiente:
En la consola, ve a la página Descripción general de los clústeres de Google Kubernetes Engine.
Selecciona el proyecto de Google Cloud y, luego, el clúster que deseas actualizar.
En el panel Detalles, haz clic en Más detalles.
En la sección Conceptos básicos del clúster, haz clic en
Actualizar.En la lista Elegir versión de destino, selecciona la versión a la que deseas actualizar. La lista seleccionada solo contiene los parches más recientes.
Haz clic en Actualizar.
Antes de actualizar el clúster, se ejecutan las comprobaciones preliminares para validar su estado y el de los nodos. Si se aprueban las comprobaciones preliminares, se actualiza el clúster de usuario. La actualización tardará unos 30 minutos en completarse.
Para ver el estado de la actualización, haz clic en Mostrar detalles en la pestaña Detalles del clúster.
gcloud CLI
Actualizar un clúster de usuario requiere algunos cambios en el clúster de administrador. El comando gcloud container vmware clusters upgrade
hace lo siguiente automáticamente:
Inscribe el clúster de administrador en la API de GKE On-Prem si aún no está inscrito.
Descarga e implementa un paquete de componentes en el clúster de administrador. Que la versión de los componentes coincida con la versión que especifiques para la actualización. Estos componentes permiten que el clúster de administrador administre los clústeres de usuario en esa versión.
Para actualizar un clúster de usuario, haz lo siguiente:
Actualiza los componentes de la CLI de Google Cloud:
gcloud components update
Solo grupos de nodos de Ubuntu y COS: si deseas actualizar solo el plano de control del clúster de usuario y dejar todos los grupos de nodos en la versión actual, cambia la política de actualización en el clúster:
gcloud container vmware clusters update USER_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION \ --upgrade-policy control-plane-only=True
Reemplaza lo siguiente:
USER_CLUSTER_NAME
: Es el nombre del clúster de usuario que se actualizará.PROJECT_ID
: Es el ID del proyecto host de flota en el que es miembro el clúster de usuario. Este es el proyecto que especificaste cuando se creó el clúster. Si creaste el clúster congkectl
, este es el ID del proyecto en el campogkeConnect.projectID
del archivo de configuración del clúster.REGION
: Es la región de Google Cloud en la que la API de GKE On-Prem ejecuta y almacena sus metadatos. Si creaste el clúster con un cliente de la API de GKE On-Prem, esta es la región que seleccionaste cuando creaste el clúster. Si creaste el clúster congkectl
, esta es la región que especificaste cuando inscribiste el clúster en la API de GKE On-Prem.
Obtén una lista de las versiones disponibles para actualizar:
gcloud container vmware clusters query-version-config \ --cluster=USER_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION
El resultado del comando es similar al siguiente:
versions: - version: 1.16.3-gke.45 - version: 1.16.2-gke.28 - version: 1.16.1-gke.45 - version: 1.16.0-gke.669 - version: 1.15.6-gke.25 - version: 1.15.5-gke.41 An Anthos version must be made available on the admin cluster ahead of the user cluster creation or upgrade. Versions annotated with isInstalled=true are installed on the admin cluster for the purpose of user cluster creation or upgrade whereas other version are released and will be available for upgrade once dependencies are resolved. To install the version in the admin cluster, run: $ gcloud container vmware admin-clusters update my-admin-cluster --required-platform-version=VERSION
Puedes ignorar el mensaje que aparece después de la lista de versiones. No importa si la versión a la que estás actualizando está instalada en el clúster de administrador. El comando
upgrade
descarga y, luego, implementa un paquete de componentes que coincide con la versión que especificaste en el comandoupgrade
.Actualiza el clúster. Si ejecutaste el comando
update
para cambiar la política de actualización acontrol-plane-only=True
, solo se actualizará el plano de control del clúster. De lo contrario, el plano de control del clúster y todos los grupos de nodos se actualizan.gcloud container vmware clusters upgrade USER_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION \ --version=VERSION
Reemplaza VERSION por la versión de Google Distributed Cloud a la que deseas actualizar. Especifica una versión del resultado del comando anterior. Te recomendamos actualizar a la versión más reciente del parche.
El resultado del comando es similar al siguiente:
Waiting for operation [projects/example-project-12345/locations/us-west1/operations/operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179] to complete.
En el resultado de ejemplo, la cadena
operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179
es el OPERATION_ID de la operación de larga duración. Para averiguar el estado de la operación, ejecuta el siguiente comando en otra ventana de terminal:gcloud container vmware operations describe OPERATION_ID \ --project=PROJECT_ID \ --location=REGION
Actualiza grupos de nodos
Si elegiste actualizar solo el plano de control del clúster de usuario, realiza los siguientes pasos para actualizar los grupos de nodos después de actualizar el plano de control del clúster de usuario:
Obtén una lista de grupos de nodos en el clúster de usuario:
gcloud container vmware node-pools list --cluster=USER_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION
Para cada grupo de nodos que quieras actualizar, ejecuta el siguiente comando:
gcloud container vmware node-pools update NODE_POOL_NAME \ --cluster=USER_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION \ --version=VERSION
Terraform
Actualiza los componentes de la CLI de Google Cloud:
gcloud components update
Si aún no lo hiciste, inscribe el clúster de administrador en la API de GKE On-Prem. Una vez que el clúster está inscrito en la API de GKE On-Prem, no necesitas volver a realizar este paso.
Obtén una lista de las versiones disponibles para actualizar:
gcloud container vmware clusters query-version-config \ --cluster=USER_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION
Reemplaza lo siguiente:
USER_CLUSTER_NAME
: Es el nombre del clúster de usuario.PROJECT_ID
: El ID del proyecto de flota al que pertenece ese clúster de usuario. Este es el proyecto que especificaste cuando se creó el clúster. Si creaste el clúster congkectl
, este es el ID del proyecto en el campogkeConnect.projectID
del archivo de configuración del clúster.REGION
: Es la región de Google Cloud en la que la API de GKE On-Prem ejecuta y almacena sus metadatos. En el archivomain.tf
que usaste para crear el clúster de usuario, la región está en el campolocation
del recurso del clúster.
El resultado del comando es similar al siguiente:
versions: - version: 1.16.3-gke.45 - version: 1.16.2-gke.28 - version: 1.16.1-gke.45 - version: 1.16.0-gke.669 - version: 1.15.6-gke.25 - version: 1.15.5-gke.41 An Anthos version must be made available on the admin cluster ahead of the user cluster creation or upgrade. Versions annotated with isInstalled=true are installed on the admin cluster for the purpose of user cluster creation or upgrade whereas other version are released and will be available for upgrade once dependencies are resolved. To install the version in the admin cluster, run: $ gcloud container vmware admin-clusters update my-admin-cluster --required-platform-version=VERSION
Descarga la versión nueva de los componentes y, luego, impleméntalos en el clúster de administrador:
gcloud vmware admin-clusters update ADMIN_CLUSTER_NAME \ --project=PROJECT_ID \ --location=REGION \ --required-platform-version=VERSION
Este comando descarga la versión de los componentes que especificas en
--required-platform-version
al clúster de administrador y, luego, implementa los componentes. Estos componentes permiten que el clúster de administrador administre los clústeres de usuario en esa versión.En el archivo
main.tf
que usaste para crear el clúster de usuario, cambiaon_prem_version
en el recurso del clúster a la versión nueva.Solo grupos de nodos de Ubuntu y COS: Si deseas actualizar solo el plano de control del clúster de usuario y dejar todos los grupos de nodos en la versión actual, agrega lo siguiente al recurso del clúster:
upgrade_policy { control_plane_only = true }
Inicializa y crea terraform plan:
terraform init
Terraform instala las bibliotecas necesarias, como el proveedor de Google Cloud.
Revisa la configuración y realiza cambios si es necesario:
terraform plan
Aplica el plan de Terraform para crear el clúster de usuario:
terraform apply
Actualiza grupos de nodos
Si elegiste actualizar solo el plano de control del clúster de usuario, realiza los siguientes pasos para actualizar grupos de nodos adicionales después de que se actualice el plano de control del clúster de usuario:
En
main.tf
, en el recurso de cada grupo de nodos que quieras actualizar, agrega lo siguiente:on_prem_version = "VERSION"
Por ejemplo:
resource "google_gkeonprem_vmware_node_pool" "nodepool-basic" { name = "my-nodepool" location = "us-west1" vmware_cluster = google_gkeonprem_vmware_cluster.default-basic.name config { replicas = 3 image_type = "ubuntu_containerd" enable_load_balancer = true } on_prem_version = "1.16.0-gke.0" }
Inicializa y crea terraform plan:
terraform init
Revisa la configuración y realiza cambios si es necesario:
terraform plan
Aplica el plan de Terraform para crear el clúster de usuario:
terraform apply
Actualiza el clúster de administrador
Después de actualizar los clústeres de usuario, puedes actualizar el clúster de administrador.
Antes de comenzar:
Determina si tus certificados están actualizados y renuévalos si es necesario.
Si actualizas a la versión 1.13 o una versión posterior, primero debes registrar el clúster de administrador mediante la sección
gkeConnect
del archivo de configuración del clúster de administrador. Ejecuta el comandogkectl
update cluster con los cambios en el archivo de configuración.Asegúrate de que tu
gkectl
y tus clústeres sean de la versión adecuada para una actualización y de que descargaste el paquete correspondiente. El sesgo de versión entre los clústeres de administrador y de usuario depende de la versión de Google Distributed Cloud. Para asegurarte de que puedes actualizar el clúster de administrador, consulta Sesgo de versiones de clústeres de administrador y de usuario.Asegúrate de que el campo
bundlepath
del archivo de configuración del clúster de administrador coincida con la ruta de acceso del paquete al que deseas actualizar.Si realizas cualquier otro cambio en los campos del archivo de configuración del clúster de administrador, estos cambios se ignorarán durante la actualización. Para que esos cambios se apliquen, primero debes actualizar el clúster y, luego, ejecutar un comando update cluster con los cambios en el archivo de configuración para realizar otros cambios en el clúster.
Ejecución gkectl upgrade admin
Sigue los pasos que se indican en esta sección en la estación de trabajo del administrador. Hay dos variaciones del comando gkectl upgrade admin
:
Asíncrona:
Con la variación asíncrona, el comando inicia la actualización y, luego, se completa. No necesitas mirar el resultado del comando durante toda la actualización. En su lugar, puedes verificar periódicamente el progreso de la actualización si ejecutasgkectl list admin
ygkectl describe admin
. Para usar la variación asíncrona, incluye la marca--async
en el comando.Requisitos para la actualización asíncrona:
- Compatible solo con clústeres de administrador de alta disponibilidad con la versión 1.29 o posterior.
- Todos los clústeres de usuario deben tener habilitado Controlplane V2.
Síncrona:
Con la variación síncrona, el comandogkectl upgrade admin
genera mensajes de estado en la estación de trabajo de administrador a medida que avanza la actualización.
Actualización asíncrona
En la estación de trabajo de administrador, inicia una actualización asíncrona:
gkectl upgrade admin \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config ADMIN_CLUSTER_CONFIG_FILE \ --async \ FLAGS
Reemplaza lo siguiente:
ADMIN_CLUSTER_KUBECONFIG
: Es la ruta de acceso al archivo kubeconfig del clúster de administrador.ADMIN_CLUSTER_CONFIG_FILE
: Es la ruta de acceso al archivo de configuración del clúster de administrador.FLAGS
: un conjunto opcional de marcas. Por ejemplo, puedes incluir la marca--skip-validation-infra
para omitir la verificación de la infraestructura de vSphere.
Se completa el comando anterior y puedes seguir usando la estación de trabajo de administrador mientras la actualización está en curso.
Para ver el estado de la actualización, haz lo siguiente:
gkectl list admin --kubeconfig ADMIN_CLUSTER_KUBECONFIG
El resultado muestra un valor para el clúster
STATE
. Si el clúster aún se está actualizando, el valor deSTATE
esUPGRADING
. Por ejemplo:NAME STATE AGE VERSION gke-admin-test UPGRADING 9h 1.29.100-gke.248
Los valores posibles para
STATE
sonRUNNING
,UPGRADING
,RECONCILING
,ERROR
yUNKNOWN
.Para obtener más detalles sobre el progreso de la actualización y los eventos del clúster, haz lo siguiente:
gkectl describe admin --kubeconfig ADMIN_CLUSTER_KUBECONFIG
El resultado muestra el recurso personalizado OnPremAdminCluster para el clúster de administrador especificado, que incluye el estado del clúster, las condiciones y los eventos.
Registramos eventos para el inicio y el final de cada fase de actualización crítica.
Resultado de ejemplo:
Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal ControlPlaneUpgradeStarted 40m onprem-admin-cluster-controller Creating or updating admin cluster API Controller Normal ControlPlaneMachineUpgradeStarted 40m onprem-admin-cluster-controller Creating or updating control plane machine Normal StatusChanged 40m onprem-admin-cluster-controller OnPremAdminCluster status changed: - New ClusterState condition: UPGRADING - New Ready condition: False, CreateOrUpdateControlPlaneMachine, Creating or updating control plane machine Normal StatusChanged 2m onprem-admin-cluster-controller OnPremAdminCluster status changed: - New ClusterState condition: RUNNING - New Ready condition: True, ClusterRunning, Cluster is running
Cuando se completa la actualización,
gkectl list admin
muestra unSTATUS
deRUNNING
:NAME STATE AGE VERSION gke-admin-test RUNNING 9h 1.29.100-gke.248
Además, cuando se completa la actualización,
gkectl describe admin
muestra un campoLast GKE On Prem Version
enStatus
. Por ejemplo:Status: Cluster State: RUNNING Last GKE On Prem Version: 1.29.0-gke.1
Soluciona problemas de la actualización asíncrona
Para una actualización asíncrona, la duración del tiempo de espera se basa en la cantidad de nodos en el clúster. Si la actualización lleva más tiempo que la duración del tiempo de espera, el estado del clúster cambia de UPGRADING
a ERROR
, con un evento que dice que se agotó el tiempo de espera de la operación de actualización. Ten en cuenta que el estado ERROR
aquí significa
que la actualización está tardando más de lo esperado, pero no se canceló. El controlador continúa con la conciliación y vuelve a intentar la operación.
Cuando se bloquea o falla una actualización, puedes ejecutar gkectl diagnose
para verificar problemas comunes del clúster. En función del resultado, puedes decidir si quieres realizar una corrección manual o comunicarte con el equipo de Asistencia de Google Cloud para obtener más ayuda.
Actualización síncrona
Ejecuta el siguiente comando:
gkectl upgrade admin \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config ADMIN_CLUSTER_CONFIG_FILE \ FLAGS
Reemplaza lo siguiente:
ADMIN_CLUSTER_KUBECONFIG
: Es la ruta de acceso al archivo kubeconfig del clúster de administrador.ADMIN_CLUSTER_CONFIG_FILE
: la ruta al archivo de configuración del clúster de administrador.FLAGS
: un conjunto opcional de marcas. Por ejemplo, puedes incluir la marca--skip-validation-infra
para omitir la comprobación de la infraestructura de vSphere.
El comando
gkectl upgrade
ejecuta comprobaciones preliminares. Si las comprobaciones preliminares fallan, el comando se bloquea. Debes corregir las fallas o usar la marca--skip-preflight-check-blocking
con el comando para desbloquearla.Si actualizas a la versión 1.14.0 o superior, se genera un archivo kubeconfig nuevo para el clúster de administrador que reemplaza cualquier archivo existente. Para ver detalles del clúster en el archivo, ejecuta el siguiente comando:
kubectl config view --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Quita el paquete completo
Si descargaste un paquete completo y ejecutaste correctamente los comandos gkectl prepare
y gkectl upgrade admin
, debes borrar el paquete completo para ahorrar espacio en el disco en la estación de trabajo de administrador. Ejecuta el siguiente comando para borrar el paquete completo:
rm /var/lib/gke/bundles/gke-onprem-vsphere-${TARGET_VERSION}-full.tgz
Reanuda la actualización de un clúster de administrador
Si la actualización de un clúster de administrador se interrumpe o falla, la actualización se puede reanudar si el punto de control del clúster de administrador contiene el estado necesario para restablecer el estado antes de la interrupción.
Advertencia: No repares la instancia principal de administrador con gkectl repair admin-master
después de un intento de actualización con errores. Esto provocará que el clúster de administrador cambie a un estado incorrecto.
Lleve a cabo los pasos siguientes:
Verifica si el plano de control del administrador está en buen estado antes de comenzar el intento de actualización inicial. Consulta Diagnostica problemas de clústeres. Como se explica en ese tema, ejecuta el comando
gkectl diagnose cluster
para el clúster de administrador.Si el plano de control del administrador está en mal estado antes del intento de actualización inicial, repara el plano de control del administrador con el comando
gkectl repair admin-master
.Cuando vuelvas a ejecutar el comando de actualización después de que una actualización se interrumpa o falle, usa el mismo paquete y versión de destino como lo hiciste en el intento de actualización anterior.
Cuando vuelves a ejecutar el comando de actualización, la actualización reanudada recrea el estado del clúster de administrador desde el punto de control y vuelve a ejecutar la actualización completa. A partir de la versión 1.12.0, si el plano de control del administrador no está en buen estado, el proceso de actualización se actualizará directamente a la versión de destino sin intentar restablecer el clúster de administrador en la versión de origen antes de continuar con la actualización.
La actualización se reanudará desde el punto en que falló o salió si el punto de control del clúster de administrador está disponible. Si el punto de control no está disponible, la actualización recurrirá al plano de control del administrador y, por lo tanto, este debe estar en buen estado para continuar con la actualización. Después de una actualización exitosa, el punto de control se vuelve a generar.
Si gkectl
se cierra de forma inesperada durante una actualización del clúster de administrador, el clúster de tipo no se limpia. Antes de volver a ejecutar el comando de actualización para reanudar la actualización, borra el clúster de tipo:
docker stop gkectl-control-plane && docker rm gkectl-control-plane
Después de borrar el clúster de categoría, vuelve a ejecutar el comando de actualización.
Revierte una estación de trabajo de administrador después de una actualización
Puedes revertir la estación de trabajo de administrador a la versión que se usó antes de la actualización.
Durante la actualización, gkeadm
registra la versión antes de que se actualice en el archivo de información de salida. Durante la reversión, gkeadm
usa la versión que se muestra para descargar el archivo anterior.
Para revertir la estación de trabajo de administrador a la versión anterior, sigue estos pasos:
gkeadm rollback admin-workstation --config=AW_CONFIG_FILE
Puedes omitir --config=AW_CONFIG_FILE
si el archivo de configuración de la estación de trabajo de administrador es admin-ws-config.yaml
predeterminado. De lo contrario, reemplaza AW_CONFIG_FILE por la ruta de acceso al archivo de configuración de la estación de trabajo de administrador.
El comando de reversión realiza estos pasos:
- Descarga la versión de reversión de
gkeadm
. - Crea una copia de seguridad del directorio principal de la estación de trabajo de administrador actual.
- Crea una estación de trabajo de administrador nueva con la versión de reversión de
gkeadm
. - Borra la estación de trabajo de administrador original.
Instala el paquete con una versión diferente para la actualización
Si actualizas la estación de trabajo, se instalará un paquete con la versión correspondiente para actualizar los clústeres. Si deseas una versión diferente, sigue estos pasos a fin de instalar un paquete para TARGET_VERSION, que es la versión a la que deseas actualizar.
Para comprobar las versiones actuales de los clústeres y de
gkectl
, ejecuta este comando. Usa la marca--details/-d
para obtener información más detallada.gkectl version --kubeconfig ADMIN_CLUSTER_KUBECONFIG --details
En el resultado, se proporciona información sobre las versiones de tu clúster.
Según los resultados que obtengas, busca los siguientes problemas y corrígelos según sea necesario.
Si la versión actual del clúster de administrador es más de una versión secundaria inferior a TARGET_VERSION, actualiza todos los clústeres para que sean una versión secundaria anterior a TARGET_VERSION.
Si la versión
gkectl
es anterior a la 1.11 y deseas actualizar a la versión 1.12.x, tendrás que realizar varias actualizaciones. Actualiza una versión secundaria a la vez hasta llegar a la versión 1.11.x y, luego, continúa con las instrucciones de este tema.Si la versión de
gkectl
es anterior a TARGET_VERSION, actualiza la estación de trabajo de administrador a TARGET_VERSION.
Una vez que hayas determinado que tus versiones de
gkectl
y los clústeres son adecuadas para una actualización, descarga el paquete.Verifica si el paquete comprimido ya existe en la estación de trabajo de administrador.
stat /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz
Si el paquete no está en la estación de trabajo de administrador, descárgalo.
gsutil cp gs://gke-on-prem-release/gke-onprem-bundle/TARGET_VERSION/gke-onprem-vsphere-TARGET_VERSION.tgz /var/lib/gke/bundles/
Instala el paquete.
gkectl prepare --bundle-path /var/lib/gke/bundles/gke-onprem-vsphere-TARGET_VERSION.tgz --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Reemplaza ADMIN_CLUSTER_KUBECONFIG por la ruta de acceso de tu archivo kubeconfig. Puedes omitir esta marca si el archivo se encuentra en el directorio actual y tiene el nombre
kubeconfig
.Enumera las versiones de clúster disponibles y asegúrate de que la versión de destino esté incluida en las versiones de clúster de usuario disponibles.
gkectl version --kubeconfig ADMIN_CLUSTER_KUBECONFIG --details
Ahora puedes crear un clúster de usuario en la versión de destino o actualizar un clúster de usuario a la versión de destino.
Soluciona problemas del proceso de actualización
Si tienes problemas cuando sigues el proceso de actualización recomendado, sigue estas recomendaciones para resolverlos. Estas sugerencias suponen que has comenzado con una configuración de la versión 1.11.x y que estás realizando el proceso de actualización recomendado.
Consulta también: Soluciona problemas de creación y actualización de clústeres
Soluciona un problema de actualización del clúster de usuario
Supongamos que encuentras un problema con la versión de actualización cuando actualizas un clúster de usuario. Determinas a partir de Atención al cliente de Google que el problema se solucionará en una próxima versión de parche. Puedes continuar de la siguiente manera:
- Continúa usando la versión actual para la producción.
- Prueba la versión del parche en un clúster que no sea de producción cuando se lance
- Actualiza todos los clústeres de usuario de producción a la versión de actualización de parche cuando estés seguro.
- Actualiza el clúster de administrador a la versión de actualización de parches.
Soluciona problemas de actualización de un clúster de administrador
Si surge algún problema cuando actualizas el clúster de administrador, debes comunicarte con la Atención al cliente de Google para resolverlo.
Mientras tanto, con el nuevo flujo de actualización, todavía puedes beneficiarse de las nuevas funciones del clúster de usuario sin que se bloquee la actualización del clúster de administrador, lo que te permite reducir la frecuencia de actualización del clúster de administrador, si así lo desea. El proceso de actualización puede proceder de la siguiente manera:
- Actualiza los clústeres de usuario de producción a la versión 1.12.x.
- Mantén la versión anterior del clúster de administrador y continúa recibiendo parches de seguridad.
- Prueba la actualización de los clústeres de administrador de 1.11.x a 1.12.x en un entorno de prueba y, luego, informar los problemas si los hay
- Si tu problema se resuelve con una versión de parche 1.12.x, puedes elegir actualizar el clúster de administrador de producción a esta versión de parche si lo deseas.
Problemas conocidos de versiones recientes
Los siguientes problemas conocidos podrían afectar las actualizaciones si estás actualizando desde la versión 1.7 o posterior.
Consulta también: Problemas conocidos
La actualización de la estación de trabajo de administrador puede fallar si el disco de datos está casi lleno
Si actualizas la estación de trabajo de administrador con el comando gkectl upgrade admin-workstation
, la actualización podría fallar si el disco de datos está casi lleno, ya que el sistema intenta crear una copia de seguridad de la estación de trabajo de administrador actual de forma local mientras se actualiza a una nueva estación de trabajo de administrador. Si no puedes liberar suficiente espacio en el disco de datos, usa el comando gkectl upgrade admin-workstation
con la marca adicional --backup-to-local=false
para evitar realizar una copia de seguridad local de la estación de trabajo de administrador actual.
Interrupción de las cargas de trabajo con PodDisruptionBudgets
Por el momento, la actualización de los clústeres puede causar interrupciones o tiempo de inactividad para las cargas de trabajo que usan PodDisruptionBudgets (PDB).
El proceso de actualización de los nodos falla
Si tienes objetos PodDisruptionBudget
configurados que no pueden permitir interrupciones adicionales, es posible que las actualizaciones de los nodos no se actualicen a la versión del plano de control después de varios intentos. Para evitar esta falla, te recomendamos que escales verticalmente la Deployment
o la HorizontalPodAutoscaler
a fin de permitir que el nodo se desvíe y aún respete la configuración de PodDisruptionBudget
.
Para ver todos los objetos PodDisruptionBudget
que no permiten ninguna interrupción, haz lo siguiente:
kubectl get poddisruptionbudget --all-namespaces -o jsonpath='{range .items[?(@.status.disruptionsAllowed==0)]}{.metadata.name}/{.metadata.namespace}{"\n"}{end}'
Apéndice
Acerca de las reglas de DRS de VMware habilitadas en la versión 1.1.0-gke.6
A partir de la versión 1.1.0-gke.6, GKE en VMware crea de forma automática reglas de antiafinidad de Distributed Resource Scheduler (DRS) de VMware para los nodos del clúster de usuario, lo que hace que se distribuyan en al menos tres hosts físicos de tu centro de datos. A partir de la versión 1.1.0-gke.6, esta función se habilita de forma automática para clústeres nuevos y existentes.
Antes de realizar la actualización, asegúrate de que el entorno de vSphere cumpla con las siguientes condiciones:
DRS de VMware debe estar habilitado. Para el DRS de VMware, se requiere la edición de licencia de vSphere Enterprise Plus. Para aprender a habilitar el DRS, consulta Habilita el DRS de VMware en un clúster.
El nombre de usuario de vSphere que se proporciona en el archivo de configuración de credenciales tiene el permiso
Host.Inventory.EditCluster
.Debe haber al menos tres hosts físicos disponibles.
Si el entorno de vSphere no cumple con las condiciones anteriores, aún puedes realizar la actualización. Pero para actualizar un clúster de usuario de 1.3.x a 1.4.x, debes inhabilitar los grupos antiafinidad. Para obtener más información, consulta este problema conocido en las notas de la versión de Google Distributed Cloud.
Información sobre el tiempo de inactividad durante las actualizaciones
Recurso | Descripción |
---|---|
Clúster de administrador | Cuando un clúster de administrador está inactivo, los planos de control y las cargas de trabajo en los clústeres de usuario continúan ejecutándose, a menos que se vean afectados por una falla que causó el tiempo de inactividad. |
Plano de control del clúster de usuario | Por lo general, no es probable que se produzcan tiempos de inactividad perceptibles en los planos de control del clúster de usuario. Sin embargo, las conexiones de larga duración al servidor de la API de Kubernetes podrían fallar y tendrían que restablecerse. En esos casos, el emisor de la API debe volver a intentarlo hasta que se establezca una conexión. En el peor de los casos, puede haber hasta un minuto de tiempo de inactividad durante una actualización. |
Nodos del clúster de usuario | Si una actualización requiere un cambio en los nodos del clúster de usuario, GKE en VMware vuelve a crear los nodos de forma progresiva y reprograma los Pods que se ejecutan en estos nodos. Puedes evitar el impacto en tus cargas de trabajo; para ello, configura PodDisruptionBudgets y reglas de antiafinidad adecuados. |
Vuelve a crear un archivo de información si falta
Si falta el archivo de información de salida para tu estación de trabajo de administrador, debes volver a crear este archivo para poder continuar con la actualización. Este archivo se creó cuando creaste la estación de trabajo inicialmente y, si desde entonces realizaste una actualización, se actualizó con información nueva.
El archivo de información de salida tiene este formato:
Admin workstation version: GKEADM_VERSION Created using gkeadm version: GKEADM_VERSION VM name: ADMIN_WS_NAME IP: ADMIN_WS_IP SSH key used: FULL_PATH_TO_ADMIN_WS_SSH_KEY To access your admin workstation: ssh -i FULL-PATH-TO-ADMIN-WS-SSH-KEY ubuntu@ADMIN-WS-IP
A continuación, se muestra un archivo de información de salida de ejemplo:
Admin workstation version: v1.10.3-gke.49 Created using gkeadm version: v1.10.3-gke.49 VM name: admin-ws-janedoe IP: 172.16.91.21 SSH key used: /usr/local/google/home/janedoe/.ssh/gke-admin-workstation Upgraded from (rollback version): v1.10.0-gke.194 To access your admin workstation: ssh -i /usr/local/google/home/janedoe/.ssh/gke-admin-workstation ubuntu@172.16.91.21
Crea el archivo en un editor y sustituye los parámetros que correspondan. Guarda el archivo con un nombre de archivo que sea igual al nombre de la VM en el directorio desde el que se ejecuta gkeadm. Por ejemplo, si el nombre de la VM es admin-ws-janedoe
, guarda el archivo como admin-ws-janedoe
.
¿Qué sigue?
Documentación de referencia de gcloud CLI
Documentación de referencia de Terraform