Selecciona tus clústeres de Anthos en versión Bare Metal:
Selecciona la categoría del problema:
O bien, busca tu problema:
Categoría | Versiones identificadas | Problema y solución alternativa |
---|---|---|
Operación | 1.14 |
1.14 nodos del clúster de IPv4 en modo isla tienen un tamaño de máscara CIDR de Pod de 24En la versión 1.14, la configuración de Si tu clúster se ve afectado, el pod error="required IPv4 PodCIDR not available" Solución alternativa Sigue estos pasos para solucionar el problema:
|
Operación, entorno de ejecución de VM de Anthos | 1.10, 1.11, 1.12, 1.13, 1.14 |
Anthos VM Runtime: Cuando reinicias un pod, las VM del pod cambian las direcciones IP o pierden sus direcciones IP por completo.Si la dirección IP de una VM cambia, esto no afecta la accesibilidad de las aplicaciones de VM expuestas como un servicio de Kubernetes. Solución alternativa
Si se pierde la dirección IP, debes ejecutar |
Revisiones y actualizaciones | 1.10, 1.11, 1.12, 1.13, 1.14 |
|
Operación | 1.10, 1.11, 1.12, 1.13, 1.14 |
Captura una instantánea como usuario no raíz de accesoSi usas containerd como entorno de ejecución del contenedor, la ejecución de la instantánea como usuario no raíz requiere que Cuando no accedes como usuario raíz, se usa Solución alternativa
Actualiza |
Instalación | 1.10, 1.11, 1.12, 1.13, 1.14 |
Credenciales predeterminadas de la aplicación y
|
Registro y supervisión | 1.10, 1.11, 1.12, 1.13, 1.14 |
Datos de métricas desconocidos en Cloud MonitoringLos datos en los clústeres de la versión 1.10.x de Cloud Monitoring pueden contener entradas de métricas de resumen irrelevantes, como las siguientes: Unknown metric: kubernetes.io/anthos/go_gc_duration_seconds_summary_percentile Entre otros tipos de métricas que pueden tener métricas de resumen irrelevantes, se incluyen los siguientes:
Si bien estas métricas de tipo de resumen están en la lista de métricas, |
Herramientas de redes | 1.10, 1.11, 1.12, 1.13, 1.14 |
Direcciones
|
Seguridad | 1.10, 1.11, 1.12, 1.13, 1.14 |
El contenedor no puede escribir en
|
Revisiones y actualizaciones | 1.10, 1.11, 1.12, 1.13, 1.14 |
El vaciado de nodos no puede iniciarse cuando el nodo está fuera del alcanceEl proceso de desvío de los nodos no comenzará si el nodo está fuera del alcance de los clústeres de Anthos en un equipo físico. Por ejemplo, si un nodo se desconecta durante un proceso de actualización del clúster, es posible que la actualización deje de responder. Esto es poco frecuente. Solución alternativa
Para minimizar la probabilidad de encontrar este problema, asegúrate de que tus nodos funcionen correctamente antes de iniciar una actualización. |
Revisiones y actualizaciones | 1.14.0, 1.14.1 |
Error de reversión de la actualización del clústerUna reversión de actualización puede fallar en los clústeres de Anthos en equipos físicos 1.14.0 a 1.14.1.
Si actualizas un clúster de 1.14.0 a 1.14.1 y, luego, intentas revertir a la versión 1.14.0 mediante el comando I0119 22:11:49.705596 107905 client.go:48] Operation failed, retrying with backoff. Cause: error updating "baremetal.cluster.gke.io/v1, Kind=HealthCheck" cluster-user-ci-f3a04dc1b0d2ac8/user-ci-f3a04dc1b0d2ac8-network: admission webhook "vhealthcheck.kb.io" denied the request: HealthCheck.baremetal.cluster.gke.io "user-ci-f3a04dc1b0d2ac8-network" is invalid: Spec: Invalid value: v1.HealthCheckSpec{ClusterName:(*string)(0xc0003096e0), AnthosBareMetalVersion:(*string)(0xc000309690), Type:(*v1.CheckType)(0xc000309710), NodePoolNames:[]string(nil), NodeAddresses:[]string(nil), ConfigYAML:(*string)(nil), CheckImageVersion:(*string)(nil), IntervalInSeconds:(*int64)(0xc0015c29f8)}: Field is immutable Solución alternativa: Borra todos los recursos
|
Seguridad | 1.10, 1.11, 1.12, 1.13, 1.14 |
Errores de SELinux durante la creación de PodsA veces, la creación del Pod falla cuando SELinux evita que el entorno de ejecución del contenedor configure etiquetas en las activaciones Para verificar que SELinux sea la causa de las fallas en la creación del pod, usa el siguiente comando a fin de detectar errores en los registros journalctl -u kubelet Si SELinux hace que la creación del pod falle, la respuesta del comando contiene un error similar al siguiente: error setting label on mount source '/var/lib/kubelet/pods/6d9466f7-d818-4658-b27c-3474bfd48c79/volumes/kubernetes.io~secret/localpv-token-bpw5x': failed to set file label on /var/lib/kubelet/pods/6d9466f7-d818-4658-b27c-3474bfd48c79/volumes/kubernetes.io~secret/localpv-token-bpw5x: permission denied Para verificar que este problema esté relacionado con la aplicación de SELinux, ejecuta el siguiente comando: ausearch -m avc Este comando busca errores de permiso de la caché de vectores de acceso (AVC) en los registros de auditoría. El type=AVC msg=audit(1627410995.808:9534): avc: denied { associate } for pid=20660 comm="dockerd" name="/" dev="tmpfs" ino=186492 scontext=system_u:object_r: container_file_t:s0:c61,c201 tcontext=system_u: object_r:locale_t:s0 tclass=filesystem permissive=0 La causa raíz de este problema de creación de pods con SELinux es un error de kernel que se encuentra en las siguientes imágenes de Linux:
Solución alternativa
Reiniciar la máquina ayuda a solucionar el problema. Para evitar que se produzcan errores de creación de Pods, usa RHEL 8.3 o una versión posterior, o CentOS 8.3 o una versión posterior, ya que esas versiones corrigieron el error de kernel. |
Registro y supervisión | 1.10, 1.11, 1.12, 1.13, 1.14 |
Facturación inesperada de MonitoringPara los clústeres de Anthos en las versiones 1.10 de Bare Metal a la versión más reciente, algunos clientes notaron una facturación inesperadamente alta para
Para confirmar si te afecta este problema, enumera las métricas definidas por el usuario. Si ves la facturación de métricas no deseadas, este problema se aplica a ti. Solución alternativa
Si te afecta este problema, te recomendamos que actualices tus clústeres a la versión 1.12 y cambies a la nueva solución de supervisión de aplicaciones managed-service-for-prometheus que abordan este problema: Si no puedes actualizar a la versión 1.12, sigue estos pasos:
|
Herramientas de redes | 1.11, 1.12, 1.13, 1.14 |
Falla de NAT con demasiadas conexiones paralelasPara un nodo determinado en tu clúster, la dirección IP del nodo proporciona traducción de direcciones de red (NAT) para los paquetes enrutados a una dirección fuera del clúster. Del mismo modo, cuando los paquetes entrantes ingresan a un nodo de balanceo de cargas configurado para usar el balanceo de cargas en paquetes ( El rango de puertos para NAT que usan los clústeres de Anthos en Bare Metal es de Cuando la cantidad de conexiones en tu nodo se acerque a 32,767, comenzarás a ver disminuciones de paquetes para conexiones que necesitan NAT. Para identificar este problema, ejecuta el siguiente comando en el pod kubectl -n kube-system anetd-XXX -- hubble observe \ --from-ip $IP --to-ip $IP -f Deberías ver los siguientes errores: No mapping for NAT masquerade DROPPED Solución alternativa
Redistribuye tu tráfico a otros nodos. |
Herramientas de redes | 1.10, 1.11, 1.12, 1.13, 1.14 |
Fallas de conectividad del Pod y filtrado de la ruta de acceso inversaLos clústeres de Anthos en Bare Metal configuran el filtrado de rutas de acceso inverso en los nodos para inhabilitar la validación de la fuente ( El filtrado de ruta de acceso inverso se establece con archivos Solución alternativa
Para restablecer la conectividad del pod, vuelve a establecer kubectl get pods -n kube-system kubectl delete pods -n kube-system ANETD_XYZ Reemplaza |
Herramientas de redes | 1.10, 1.11, 1.12, 1.13, 1.14 |
IP de origen del cliente con balanceo de cargas de capa 2Si estableces la política de tráfico externo en Solución alternativa
Si deseas conservar la dirección IP de origen del cliente, es posible que se requiera una configuración adicional para garantizar que las IP de servicio sean accesibles. Para obtener más información sobre la configuración, consulta la sección sobre la preservación de la dirección IP de origen del cliente en la configuración del balanceo de cargas en paquetes. |
Operación, entorno de ejecución de VM de Anthos | 1.11, 1.12, 1.13 y 1.14 |
La creación de una VM falla de forma intermitente con errores de cargaLa creación de una nueva máquina virtual (VM) con el comando “kubectl virt create vm” falla con poca frecuencia durante la carga de imágenes. Este problema se aplica a las VM de Linux y Windows. El error se parece al siguiente ejemplo: PVC default/heritage-linux-vm-boot-dv not found DataVolume default/heritage-linux-vm-boot-dv created Waiting for PVC heritage-linux-vm-boot-dv upload pod to be ready... Pod now ready Uploading data to https://10.200.0.51 2.38 MiB / 570.75 MiB [>----------------------------------------------------------------------------------] 0.42% 0s fail to upload image: unexpected return value 500, ... Solución alternativa Vuelve a ejecutar el comando |
Sistema operativo | 1.10, 1.11, 1.12, 1.13, 1.14 |
La creación o actualización del clúster falla en CentOSEn diciembre de 2020, la comunidad de CentOS y Red Hat anunciaron la eliminación de CentOS. El 31 de enero de 2022, CentOS 8 alcanzó el final de su vida útil (EOL). Como resultado del EOL, los repositorios Solución alternativa
Ver pasos para solucionarlosComo solución alternativa, ejecuta los siguientes comandos para que CentOS use un feed de archivo: sed -i 's/mirrorlist/#mirrorlist/g' /etc/yum.repos.d/CentOS-Linux-* sed -i 's|#baseurl=http://mirror.centos.org|baseurl=http://vault.centos.org|g' \ /etc/yum.repos.d/CentOS-Linux-* Como solución a largo plazo, considera migrar a otro sistema operativo compatible. |
Revisiones y actualizaciones | 1.13.0, 1.14 |
Las actualizaciones in situ de 1.13.0 a 1.14.x nunca finalizanCuando intentas realizar una actualización in situ de 1.13.0 a 1.14.x mediante Un error con el operador Solución alternativa: Actualiza a la versión 1.13.1 antes de actualizar a la versión 1.14.x. Una actualización in situ debería funcionar de 1.13.0 a 1.13.1. También puedes actualizar de 1.13.0 a 1.14.x sin la marca |
Herramientas de redes | 1.10, 1.11, 1.12, 1.13, 1.14 |
Las direcciones IP del clúster de arranque (tipo) y las del nodo del clúster se superponen
Solución alternativa
Para evitar el conflicto, puedes pasar las marcas |
Sistema operativo | 1.10, 1.11, 1.12, 1.13, 1.14 |
Limitaciones del extremo del sistema operativoEn RHEL y CentOS, hay una limitación a nivel de clúster de 100,000 extremos. Servicio de Kubernetes Si 2 servicios hacen referencia al mismo conjunto de pods, se cuenta como 2 conjuntos separados de extremos. La implementación subyacente de |
Actualizaciones y actualizaciones, Seguridad | 1.13 y 1.14 |
Los clústeres actualizados a la versión 1.14.0 pierden taints principalesLos nodos del plano de control requieren uno de dos taints específicos para evitar que los pods de la carga de trabajo se programen en ellos. Cuando actualizas los clústeres de Anthos a la versión 1.14.0, los nodos del plano de control pierden los siguientes taints obligatorios:
Este problema no causa fallas de actualización, pero los pods que no deben ejecutarse en los nodos del plano de control pueden comenzar a hacerlo. Estos pods de carga de trabajo pueden abrumar los nodos del plano de control y generar inestabilidad del clúster. Cómo determinar si se ve afectado
Solución alternativa Usa los siguientes pasos para cada nodo del plano de control del clúster de la versión 1.14.0 afectado a fin de restablecer la función adecuada. Estos pasos son para el taint Ver pasos para solucionarlos
kubectl taint nodes |
Registro y supervisión | 1.11, 1.12, 1.13, 1.14 |
No se mantienen las modificaciones en
|
Instalación | 1.10, 1.11, 1.12, 1.13, 1.14 |
Realiza la instalación en vSphereCuando instalas clústeres de Anthos en equipos físicos en las VM de vSphere, debes desactivar las marcas Solución alternativa
Ejecuta el siguiente comando en cada nodo para verificar los valores actuales de estas marcas: ethtool -k NET_INTFC por la interfaz de red asociada con la dirección IP del nodo.
A veces, en RHEL 8.4, ethtool muestra que estas marcas están desactivadas cuando no lo están. Para desactivar estas marcas de forma explícita, activa y desactiva las marcas con los siguientes comandos:
ethtool -K ens192 tx-udp_tnl-segmentation on ethtool -K ens192 tx-udp_tnl-csum-segmentation on ethtool -K ens192 tx-udp_tnl-segmentation off ethtool -K ens192 tx-udp_tnl-csum-segmentation off |
Restablecimiento/eliminación | 1.10, 1.11, 1.12, 1.13, 1.14 |
servicio de containerdEl comando |
Instalación | 1.10, 1.11, 1.12, 1.13, 1.14 |
Servicio de DockerEn las máquinas de nodo del clúster, si el ejecutable de Docker está presente en la variable de entorno Solución alternativa
Quita Docker o habilita el servicio Docker. |
Herramientas de redes | 1.10, 1.11, 1.12, 1.13, 1.14 |
Si se modifica
|
Instalación | 1.10, 1.11, 1.12, 1.13, 1.14 |
Verificaciones de comprobación previa y credenciales de cuentas de servicioPara las instalaciones activadas por clústeres híbridos o de administrador (en otras palabras, clústeres que no se crearon con |