Actualiza GKE On-Prem

En esta página, se explica cómo actualizar GKE On-Prem.

Versiones de destino

A partir de la versión 1.3.2 de GKE On-Prem, puedes actualizar de forma directa a cualquier versión que se encuentre en la misma versión secundaria o en la próxima versión secundaria. Por ejemplo, puedes actualizar de la versión 1.3.2 a la 1.3.5 o de la versión 1.5.2 a la 1.6.1.

Si tu versión actual es anterior a 1.3.2, debes realizar actualizaciones secuenciales para alcanzar la versión 1.3.2 primero. Por ejemplo, para actualizar de 1.3.0 a 1.3.2, primero debes actualizar de 1.3.0 a 1.3.1 y, luego, de 1.3.1 a 1.3.2.

Si actualizas de la versión 1.3.2 o posterior a una versión que no forma parte de la próxima versión secundaria, debes actualizar mediante una versión de cada actualización secundaria entre la versión actual y la deseada. Por ejemplo, si actualizas de la versión 1.3.2 a la versión 1.6.1, no es posible actualizar de forma directa. Primero debes actualizar de la versión 1.3.2 a la versión 1.4.x, en la que x representa cualquier actualización de parche en esa versión secundaria. Luego, puedes actualizar a la versión 1.5.x y, finalmente, a la versión 1.6.1.

Descripción general del proceso de actualización

  1. Descarga la herramienta gkeadm. La versión de gkeadm debe ser la misma que la versión de destino de tu actualización.

  2. Usa gkeadm para actualizar la estación de trabajo del administrador.

  3. Desde la estación de trabajo del administrador, actualiza el clúster de administrador.

  4. Desde la estación de trabajo de administrador, actualiza los clústeres de usuarios.

Actualiza la política

Después de actualizar el clúster de administrador, haz lo siguiente:

  • Todos los clústeres de usuarios nuevos que crees deben tener la misma versión que el clúster de administrador.

  • Si actualizas un clúster de usuario existente, debes actualizarlo a la misma versión que el clúster de administrador.

  • Antes de volver a actualizar el clúster de administrador, debes actualizar todos los clústeres de usuarios a la misma versión que el clúster de administrador actual.

Localiza tus archivos de información y configuración

Cuando creaste la estación de trabajo del administrador actual, completaste un archivo de configuración de la estación de trabajo del administrador que generó gkeadm create config. El nombre predeterminado para este archivo es admin-ws-config.yaml.

Cuando creaste la estación de trabajo del administrador actual, gkeadm creó un archivo de información para ti. El nombre predeterminado de este archivo es el mismo que el nombre de la estación de trabajo del administrador actual.

Localiza el archivo de configuración de la estación de trabajo del administrador y el archivo de información. Los necesitarás para realizar los pasos de esta guía. Si estos archivos se encuentran en tu directorio actual y tienen los nombres predeterminados, no tendrás que especificarlos cuando ejecutes gkeadm upgrade admin-workstation. Si estos archivos están en otro directorio o si cambiaste los nombres de archivo, debes especificarlos mediante las marcas --config y --info-file.

Actualiza la estación de trabajo del administrador

Para actualizar la estación de trabajo de administrador, primero descarga una versión nueva de la herramienta de gkeadm y, luego, úsala para actualizar la configuración de la estación de trabajo de administrador. La versión de gkeadm debe coincidir con la versión de destino de la actualización.

Descarga gkeadm

Para descargar la versión actual de gkeadm, sigue las instrucciones de descarga de gkeadm en la página de GKE On-Prem.

Actualiza la configuración de la estación de trabajo de administrador

gkeadm upgrade admin-workstation --config [AW_CONFIG_FILE] --info-file [INFO_FILE]

Donde:

  • [AW_CONFIG_FILE] es la ruta del archivo de configuración de la estación de trabajo del administrador. Puedes omitir esta marca si el archivo se encuentra en el directorio actual y tiene el nombre admin-ws-config.yaml.

  • [INFO_FILE] es la ruta del archivo de información. Puedes omitir esta marca si el archivo se encuentra en tu directorio actual. El nombre predeterminado de este archivo es el mismo que el nombre de la estación de trabajo del administrador.

El comando anterior realiza las siguientes tareas:

  • Crea una copia de seguridad de todos los archivos en el directorio principal de la estación de trabajo del administrador actual. Estos incluyen:

    • Tu archivo de configuración GKE On-Prem. El nombre predeterminado para este archivo es config.yaml.

    • Los archivos kubeconfig para el clúster de administrador y los clústeres de usuarios.

    • El certificado raíz del servidor de vCenter. Ten en cuenta que este archivo debe tener permisos de lectura y escritura de propietario.

    • El archivo de claves JSON para tu cuenta de servicio incluida en la lista de anunciantes permitidos. Ten en cuenta que este archivo debe tener permisos de lectura y escritura de propietario.

    • Los archivos de claves JSON para tus cuentas de servicio connect-register, connect-agent y logging-monitoring.

  • Crea una nueva estación de trabajo del administrador y copia todos los archivos con copia de seguridad en esta.

  • Borra la estación de trabajo del administrador anterior.

Quita la estación de trabajo del administrador anterior de known_hosts

Si la estación de trabajo del administrador tiene una dirección IP estática, debes quitar la estación de trabajo del administrador anterior del archivo known_hosts después de actualizar la estación de trabajo del administrador.

Para quitar la estación de trabajo del administrador anterior de known_hosts, haz lo siguiente:

ssh-keygen -R [ADMIN_WS_IP]

donde [ADMIN_WS_IP] es la dirección IP de tu estación de trabajo de administrador.

Configura la ruta del paquete en tu archivo de configuración de GKE On-Prem

En la nueva estación de trabajo del administrador, abre el archivo de configuración de GKE On-Prem. Configura el valor de bundlepath como la ruta del archivo de paquete en la nueva estación de trabajo del administrador:

bundlepath: "/var/lib/gke/bundles/gke-onprem-vsphere-[VERSION]-full.tgz"

En el ejemplo anterior, [VERSION] es la versión de destino de la actualización.

Actualiza la imagen de SO del nodo y las imágenes de Docker

En la nueva estación de trabajo del administrador, ejecuta el siguiente comando:

gkectl prepare --config [CONFIG_FILE] [FLAGS]

Donde:

  • [CONFIG_FILE] es el archivo de configuración de GKE On-Prem en tu nueva estación de trabajo de administración.

  • [FLAGS] es un conjunto opcional de marcas. Por ejemplo, puedes incluir la marca --skip-validation-infra para omitir la comprobación de la infraestructura de vSphere.

El comando anterior realiza las siguientes tareas:

  • Si es necesario, copia una nueva imagen de SO de nodo en tu entorno de vSphere y marca la imagen del SO como una plantilla.

  • Si configuraste un registro privado de Docker, envía imágenes de Docker actualizadas al registro privado de Docker.

Verifica que haya suficientes direcciones IP disponibles

Sigue los pasos que se indican en esta sección en la nueva estación de trabajo del administrador.

Antes de realizar la actualización, asegúrate de tener suficientes direcciones IP disponibles para los clústeres.

DHCP

Durante una actualización, GKE On-Prem crea un nodo temporal en el clúster de administrador y en cada clúster de usuario asociado. Asegúrate de que el servidor DHCP pueda proporcionar suficientes direcciones IP para estos nodos temporales. Si deseas obtener más información, consulta Direcciones IP necesarias para clústeres de administrador y de usuario.

IP estáticas

Durante una actualización, GKE On-Prem crea un nodo temporal en el clúster de administrador y en cada clúster de usuario asociado. Para el clúster de administrador y cada uno de los clústeres de usuario, verifica que hayas reservado suficientes direcciones IP. Para cada clúster, debes haber reservado al menos una dirección IP más que la cantidad de nodos del clúster. Para obtener más información, consulta Configura direcciones IP estáticas.

Determina la cantidad de nodos en el clúster de administrador:

kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] get nodes

En el comando anterior, [ADMIN_CLUSTER_KUBECONFIG] es la ruta del archivo kubeconfig del clúster de administrador.

A continuación, observa las direcciones reservadas para el clúster de administrador:

kubectl get cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -o yaml

En la salida, en el campo reservedAddresses, puedes observar la cantidad de direcciones IP que se reservaron para los nodos del clúster de administrador. Por ejemplo, en la siguiente salida, se muestra que hay cinco direcciones IP reservadas para los nodos del clúster de administrador:

...
reservedAddresses:
- gateway: 21.0.135.254
  hostname: admin-node-1
  ip: 21.0.133.41
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-2
  ip: 21.0.133.50
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-3
  ip: 21.0.133.56
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-4
  ip: 21.0.133.47
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-5
  ip: 21.0.133.44
  netmask: 21

Las direcciones IP reservadas deben ser al menos una más que la cantidad de nodos en el clúster de administrador. Si este no es el caso, puedes editar el objeto de clúster para reservar una dirección adicional.

Abre el objeto de clúster para editar:

kubectl edit cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG]

En reservedAddresses, agrega un bloque adicional que tenga gateway, hostname, ip y netmask.

Realiza el mismo procedimiento para cada uno de los clústeres de usuario.

Para determinar la cantidad de nodos en un clúster de usuario, haz lo siguiente:

kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] get nodes

En el comando anterior, [USER_CLUSTER_KUBECONFIG] es la ruta de acceso del archivo kubeconfig del clúster de usuario.

Si deseas ver las direcciones reservadas para un clúster de usuario, haz lo siguiente:

kubectl get cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
-n [USER_CLUSTER_NAME] [USER_CLUSTER_NAME] -o yaml

Donde:

  • [ADMIN_CLUSTER_KUBECONFIG] es la ruta de acceso del archivo kubeconfig del clúster de administrador.

  • [USER_CLUSTER_NAME] es el nombre del clúster de usuario.

Para editar el objeto de clúster de un clúster de usuario, sigue estos pasos:

kubectl edit cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
-n [USER_CLUSTER_NAME] [USER_CLUSTER_NAME]

Inhabilita las funciones de vSphere nuevas (opcional)

Una versión nueva de GKE On-Prem puede incluir funciones nuevas o compatibilidad con funciones específicas de VMware vSphere. A veces, la actualización a una versión de GKE On-Prem habilita de forma automática esas funciones. Aprenderás sobre las funciones nuevas en las notas de la versión de GKE On-Prem. A veces, las funciones nuevas se muestran en el archivo de configuración de GKE on-prem.

Si necesitas inhabilitar una función nueva que se habilita automáticamente en una versiónde GKE on-prem nueva y que controla el archivo de configuración, realiza los siguientes pasos antes de actualizar tu clúster:

  1. Desde tu estación de trabajo de administrador actualizada, crea un archivo de configuración nuevo con un nombre diferente al de tu archivo de configuración actual:

    gkectl create-config --config [CONFIG_NAME]
  2. Abre el nuevo archivo de configuración y toma nota del campo de la función. Cierra el archivo.

  3. Abre el archivo de configuración actual y agrega el campo de la función nueva. Configura el valor del campo como false o equivalente.

  4. Guarda el archivo de configuración.

Revisa las notas de la versión antes de actualizar los clústeres. No puedes cambiar de forma declarativa la configuración de un clúster existente después de actualizarlo.

Actualiza tu clúster de administrador

Sigue los pasos que se indican en esta sección en la nueva estación de trabajo del administrador.

Recuerda que la versión de destino de la actualización debe ser la misma que la versión de gkeadm.

Ejecute el siguiente comando:

gkectl upgrade admin \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--config [ADMIN_CLUSTER_CONFIG_FILE] \
[FLAGS]

Donde:

  • [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador.

  • [ADMIN_CLUSTER_CONFIG_FILE] es el archivo de configuración del clúster de administrador de GKE On-Prem en la nueva estación de trabajo de administrador.

  • [FLAGS] es un conjunto opcional de marcas. Por ejemplo, puedes incluir la marca --skip-validation-infra para omitir la comprobación de la infraestructura de vSphere.

Actualiza un clúster de usuario

Sigue los pasos que se indican en esta sección en la nueva estación de trabajo del administrador.

Recuerda que la versión de destino de la actualización debe ser la misma que la versión de gkeadm.

gkectl

gkectl upgrade cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--config [USER_CLUSTER_CONFIG_FILE] \
--cluster-name [CLUSTER_NAME] \
[FLAGS]

Donde:

  • [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador.

  • [CLUSTER_NAME] es el nombre del clúster de usuario que estás actualizando.

  • [USER_CLUSTER_CONFIG_FILE] es el archivo de configuración del clúster de administrador de GKE On-Prem en la nueva estación de trabajo de administrador.

  • [FLAGS] es un conjunto opcional de marcas. Por ejemplo, puedes incluir la marca --skip-validation-infra para omitir la comprobación de la infraestructura de vSphere.

Console

Puedes elegir registrar los clústeres de usuario con la consola de Google Cloud durante la instalación o después de crearlos. Puedes ver o acceder a los clústeres registrados de GKE On-Prem y los clústeres de Google Kubernetes Engine desde el menú de GKE de la consola de Google Cloud.

Cuando hay una actualización disponible para los clústeres de usuario de GKE On-Prem, aparece una notificación en la consola de Google Cloud. Si haces clic en esta notificación, se muestra una lista de las versiones disponibles y un comando de gkectl que puedes ejecutar para actualizar el clúster:

  1. Visita el menú de GKE en la consola de Google Cloud.

    Visita el menú de GKE.

  2. En la columna Notificaciones del clúster de usuario, haz clic en Actualización disponible, si está disponible.

  3. Copia el comando gkectl upgrade cluster.

  4. En la estación de trabajo de administrador, ejecuta el comando gkectl upgrade cluster, en el que [ADMIN_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de administrador, [CLUSTER_NAME] es el nombre del clúster de usuario que actualizas y [USER_CLUSTER_CONFIG_FILE] es el archivo de configuración del clúster de usuario de GKE On-Prem en la nueva estación de trabajo de administrador.

Reanuda una actualización

Si la actualización de un clúster de usuario se interrumpe después de que el clúster de administrador se actualiza de forma correcta, puedes reanudar la actualización del clúster de usuario si ejecutas el mismo comando de actualización con el marcador --skip-validation-all:

gkectl upgrade cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--config [USER_CLUSTER_CONFIG_FILE] \
--cluster-name [CLUSTER_NAME] \
--skip-validation-all

Reanuda la actualización de un clúster de administrador

No debes interrumpir la actualización de un clúster de administrador. Por el momento, las actualizaciones del clúster de administrador no siempre se pueden reanudar. Si por algún motivo se interrumpe la actualización de un clúster de administrador, debes comunicarte con el equipo de asistencia para obtener ayuda.

Crea un clúster de usuario nuevo después de una actualización

Después de actualizar la estación de trabajo del administrador y el clúster de administrador, cualquier clúster de usuario nuevo que crees debe tener la misma versión que la versión de destino de la actualización.

Problemas conocidos

Los siguientes problemas conocidos afectan a la actualización de los clústeres.

Versión 1.1.0-gke.6, 1.2.0-gke.6: se quitó el campo stackdriver.proxyconfigsecretname

El campo stackdriver.proxyconfigsecretname se quitó en la versión 1.1.0-gke.6. Las comprobaciones previas de GKE On-Prem mostrarán un error si el campo está presente en el archivo de configuración.

Para solucionar este problema, antes de actualizar a 1.2.0-gke.6, borra el campo proxyconfigsecretname del archivo de configuración.

Stackdriver hace referencia a la versión anterior

Antes de la versión 1.2.0-gke.6, un problema conocido evita que Stackdriver actualice la configuración después de las actualizaciones del clúster. Stackdriver todavía hace referencia a una versión anterior, lo que evita que Stackdriver reciba las funciones más recientes de su canalización de telemetría. Este problema puede dificultar que Atención al cliente de Google solucione los problemas de los clústeres.

Después de actualizar los clústeres a 1.2.0-gke.6, ejecuta el siguiente comando en los clústeres de administrador y usuario:

kubectl --kubeconfig=[KUBECONFIG] \
-n kube-system --type=json patch stackdrivers stackdriver \
-p '[{"op":"remove","path":"/spec/version"}]'

En el ejemplo anterior, [KUBECONFIG] es la ruta de acceso al archivo kubeconfig del clúster.

Interrupción de las cargas de trabajo con PodDisruptionBudgets

Por el momento, la actualización de los clústeres puede causar interrupciones o tiempo de inactividad para las cargas de trabajo que usan PodDisruptionBudgets (PDB).

Versión 1.2.0-gke.6: Prometheus y Grafana se inhabilitan después de la actualización

En los clústeres de usuario, Prometheus y Grafana se inhabilitan de forma automática durante la actualización. Sin embargo, los datos y las métricas de configuración no se pierden. En los clústeres de administrador, Prometheus y Grafana permanecen habilitados.

Para obtener instrucciones, consulta las notas de la versión de GKE On-Prem.

Versión 1.1.2-gke.0: Los nodos del clúster de usuario borrados no se quitan del almacén de datos de vSAN

Para obtener instrucciones, consulta las notas de la versión de GKE On-Prem.

Versión 1.1.1-gke.2: Se puede borrar el disco de datos en la carpeta del almacén de datos de vSAN

Si usas un almacén de datos de vSAN, debes crear una carpeta en la que puedas guardar el VMDK. Un problema conocido requiere que proporciones la ruta de acceso de identificador único universal (UUID) de la carpeta, en lugar de su ruta de acceso de archivo, a vcenter.datadisk. Esta incompatibilidad puede hacer que las actualizaciones fallen.

Para obtener instrucciones, consulta las notas de la versión de GKE On-Prem.

Actualización a la versión 1.1.0-gke.6 desde la versión 1.0.2-gke.3: Error de OIDC

Los clústeres de las versiones 1.0.11, 1.0.1-gke.5 y 1.0.2-gke.3 que tienen OpenID Connect (OIDC) configurado no se pueden actualizar a la versión 1.1.0-gke.6. Este problema se solucionó en la versión 1.1.1-gke.2.

Si configuraste un clúster de versión 1.0.11, 1.0.1-gke.5 o 1.0.2-gke.3 con OIDC durante la instalación, no puedes actualizarlo. En su lugar, debes crear clústeres nuevos.

Actualiza la versión 1.0.11 a la versión 1.0.2-gke.3

La versión 1.0.2-gke.3 presenta los siguientes campos de OIDC (usercluster.oidc). Estos campos permiten acceder a un clúster desde la consola de Google Cloud:

  • usercluster.oidc.kubectlredirecturl
  • usercluster.oidc.clientsecret
  • usercluster.oidc.usehttpproxy

Si deseas usar OIDC, el campo clientsecret es obligatorio incluso si no deseas acceder a un clúster desde la consola de Google Cloud. A fin de usar OIDC, es posible que debas proporcionar un valor de marcador de posición para clientsecret:

oidc:
  clientsecret: "secret"

El proceso de actualización de los nodos falla

Si tienes objetos PodDisruptionBudget configurados que no pueden permitir interrupciones adicionales, es posible que las actualizaciones de los nodos no se actualicen a la versión del plano de control después de varios intentos. Para evitar esta falla, te recomendamos que escales verticalmente la Deployment o la HorizontalPodAutoscaler a fin de permitir que el nodo se desvíe y aún respete la configuración de PodDisruptionBudget.

Para ver todos los objetos PodDisruptionBudget que no permiten ninguna interrupción, haz lo siguiente:

kubectl get poddisruptionbudget --all-namespaces -o jsonpath='{range .items[?(@.status.disruptionsAllowed==0)]}{.metadata.name}/{.metadata.namespace}{"\n"}{end}'

Apéndice

Acerca de las reglas de DRS de VMware habilitadas en la versión 1.1.0-gke.6

A partir de la versión 1.1.0-gke.6, GKE On-Prem crea de forma automática reglas de antiafinidad de Distributed Resource Scheduler (DRS) de VMware para los nodos del clúster de usuario, de modo que se distribuyan en al menos tres hosts físicos de tu centro de datos. A partir de la versión 1.1.0-gke.6, esta función se habilita de forma automática para clústeres nuevos y existentes.

Antes de realizar la actualización, asegúrate de que el entorno de vSphere cumpla con las siguientes condiciones:

  • DRS de VMware debe estar habilitado. Para el DRS de VMware, se requiere la edición de licencia de vSphere Enterprise Plus. Para aprender a habilitar el DRS, consulta Habilita el DRS de VMware en un clúster.
  • La cuenta de usuario de vSphere proporcionada en el campo vcenter debe tener el permiso Host.Inventory.EditCluster.
  • Debe haber al menos tres hosts físicos disponibles.

Si el entorno de vSphere no cumple con las condiciones anteriores, aún puedes realizar la actualización. Pero para actualizar un clúster de usuario de 1.3.x a 1.4.x, debes inhabilitar los grupos antiafinidad. Para obtener más información, consulta este problema conocido en las notas de la versión de GKE On-Prem.

Tiempo de inactividad

Acerca del tiempo de inactividad durante las actualizaciones

Recurso Descripción
Clúster de administrador

Cuando un clúster de administrador está inactivo, los planos de control y las cargas de trabajo en los clústeres de usuario continúan ejecutándose, a menos que se vean afectados por una falla que causó el tiempo de inactividad.

Plano de control del clúster de usuario

Por lo general, no es probable que se produzcan tiempos de inactividad perceptibles en los planos de control del clúster de usuario. Sin embargo, las conexiones de larga duración al servidor de la API de Kubernetes podrían fallar y tendrían que restablecerse. En esos casos, el emisor de la API debe volver a intentarlo hasta que se establezca una conexión. En el peor de los casos, puede haber hasta un minuto de tiempo de inactividad durante una actualización.

Nodos del clúster de usuario

Si una actualización requiere un cambio en los nodos del clúster de usuario, GKE On-Prem los vuelve a crear de forma progresiva y reprograma los Pods que se ejecutan en estos nodos. Puedes evitar el impacto en tus cargas de trabajo mediante la configuración de los PodDisruptionBudgets y las reglas antiafinidad adecuadas.

Soluciona problemas

Para obtener más información, consulta Soluciona problemas.

Se crearon nodos nuevos, pero no en buen estado

Síntomas

Los nodos nuevos no se registran en el plano de control del clúster de usuario cuando usan el modo de balanceo de cargas manual.

Causas posibles

Es posible que la validación de Ingress en nodos esté habilitada y que bloquee el proceso de inicio de los nodos.

Solución

Para inhabilitar la validación, ejecuta este comando:

kubectl patch machinedeployment [MACHINE_DEPLOYMENT_NAME] -p '{"spec":{"template":{"spec":{"providerSpec":{"value":{"machineVariables":{"net_validation_ports": null}}}}}}}' --type=merge

Diagnostica problemas de clústeres mediante gkectl

Usa los comandos gkectl diagnose para identificar los problemas de clústeres y compartir la información de un clúster con Google. Consulta Diagnostica problemas de clústeres.

Ejecuta comandos de gkectl de forma detallada

-v5

Registra errores de gkectl en stderr

--alsologtostderr

Ubica los registros de gkectl en la estación de trabajo de administrador

Incluso si no pasas las marcas de depuración, puedes ver los registros de gkectl en el siguiente directorio de la estación de trabajo de administrador:

/home/ubuntu/.config/gke-on-prem/logs

Ubica los registros de la API de clúster en el clúster de administrador

Si una VM no se inicia después de que se inicia el plano de control de administrador, puedes intentar depurarla mediante la inspección de los registros de los controladores de la API de clúster en el clúster de administrador:

  1. Encuentra el nombre del Pod de controladores de la API de clúster en el espacio de nombres kube-system, en el que [ADMIN_CLUSTER_KUBECONFIG] es la ruta de acceso al archivo kubeconfig del clúster de administrador:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. Abre los registros del Pod, en los que [POD_NAME] es el nombre del Pod. De manera opcional, usa grep o una herramienta similar para buscar errores:

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager