En esta página, se muestra cómo indicarle a Google Kubernetes Engine (GKE) que ejecute tus Pods en nodos en zonas específicas de Google Cloud mediante la topología zonal. Este tipo de posición es útil en situaciones como las siguientes:
- Los Pods deben acceder a los datos almacenados en un disco persistente zonal de Compute Engine.
- Los Pods deben ejecutarse junto con otros recursos zonales como las instancias de Cloud SQL.
También puedes usar la ubicación zonal con enrutamiento de tráfico adaptado a la topología para reducir la latencia entre los clientes y las cargas de trabajo. Para obtener detalles sobre el enrutamiento de tráfico adaptado de la topología, consulta Enrutamiento compatible con la topología.
Usar la topología zonal para controlar la ubicación de Pods es un mecanismo avanzado de Kubernetes que solo debes usar si tu situación requiere que los Pods se ejecuten en zonas específicas. En la mayoría de los entornos de producción, recomendamos que uses recursos regionales, que es el valor predeterminado de GKE, cuando sea posible.
Métodos de posición zonal
La topología zonal está integrada en Kubernetes con la etiqueta de nodo topology.kubernetes.io/zone: ZONE
. Para indicarle a GKE que coloque un Pod en una zona específica, usa uno de los siguientes métodos:
- nodeAffinity: Especifica una regla de nodeAffinity en la especificación del Pod para una o más zonas de Google Cloud. Este método es más flexible que un nodeSelector porque te permite colocar Pods en varias zonas.
- nodeSelector: Especifica un nodeSelector en tu especificación de Pod para una sola zona de Google Cloud.
Consideraciones
La posición de Pod zonal mediante topología zonal tiene las siguientes consideraciones:
- El clúster debe estar en la misma región de Google Cloud que las zonas solicitadas.
- En los clústeres Standard, debes usar el aprovisionamiento automático de nodos o crear grupos de nodos con nodos en las zonas solicitadas. Los clústeres de Autopilot administran este proceso de forma automática.
- Los clústeres de Standard deben ser clústeres regionales.
Precios
La topología zonal es una función de programación de Kubernetes y se ofrece sin costo adicional en GKE.
Para obtener detalles sobre los precios, consulta Precios de GKE.
Antes de comenzar
Antes de comenzar, asegúrate de haber realizado las siguientes tareas:
- Habilita la API de Kubernetes Engine de Google. Habilitar la API de Kubernetes Engine de Google
- Si deseas usar Google Cloud CLI para esta tarea, instala y, luego, inicializa gcloud CLI. Si ya instalaste gcloud CLI, ejecuta
gcloud components update
para obtener la versión más reciente.
- Asegúrate de tener un clúster de GKE existente en la misma región de Google Cloud que las zonas en las que deseas colocar tus Pods. Para crear un clúster nuevo, consulta Crea un clúster de Autopilot.
Coloca Pods en varias zonas mediante nodeAffinity
El nodo afinidad de Kubernetes de Kubernetes proporciona un mecanismo de control de programación flexible que admite varios selectores de etiquetas y operadores lógicos. Usa nodeAffinity si deseas permitir que los Pods se ejecuten en un conjunto de zonas (por ejemplo, en us-central1-a
o us-central1-f
).
Guarda el siguiente manifiesto como
multi-zone-affinity.yaml
:apiVersion: apps/v1 kind: Deployment metadata: name: nginx-deployment spec: replicas: 3 selector: matchLabels: app: nginx-multi-zone template: metadata: labels: app: nginx-multi-zone spec: containers: - name: nginx image: nginx:latest ports: - containerPort: 80 affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: topology.kubernetes.io/zone operator: In values: - us-central1-a - us-central1-f
En este manifiesto, se crea una implementación con tres réplicas y se colocan los Pods en
us-central1-a
ous-central1-f
según la disponibilidad del nodo.Asegúrate de que tu clúster esté en la región
us-central1
. Si tu clúster está en una región diferente, cambia las zonas en el campo de valores del manifiesto por zonas válidas en la región de tu clúster.Crea el Deployment:
kubectl create -f multi-zone-affinity.yaml
GKE crea los Pods en nodos en una de las zonas especificadas. Es posible que varios Pods se ejecuten en el mismo nodo. De manera opcional, puedes usar la antiafinidad del Pod para que GKE coloque cada Pod en un nodo independiente.
Coloca Pods en una sola zona con un nodeSelector
Para colocar Pods en una sola zona, usa un nodeSelector en la especificación del Pod. Un nodeSelector es equivalente a una regla de nodeAffinity requiredDuringSchedulingIgnoredDuringExecution
que tiene una sola zona especificada.
Guarda el siguiente manifiesto como
single-zone-selector.yaml
:apiVersion: apps/v1 kind: Deployment metadata: name: nginx-singlezone spec: replicas: 3 selector: matchLabels: app: nginx-singlezone template: metadata: labels: app: nginx-singlezone spec: nodeSelector: topology.kubernetes.io/zone: "us-central1-a" containers: - name: nginx image: nginx:latest ports: - containerPort: 80
Este manifiesto le indica a GKE que coloque todas las réplicas en el Deployment en la zona
us-central1-a
.Crea el Deployment:
kubectl create -f single-zone-selector.yaml
Verifica la posición del Pod
Para verificar la ubicación de los Pods, enumera los Pods y verifica las etiquetas de los nodos. Es posible que varios Pods se ejecuten en un solo nodo, por lo que es posible que no veas Pods distribuidos en varias zonas si usaste nodeAffinity.
Enumera los Pods:
kubectl get pods -o wide
El resultado es una lista de Pods en ejecución y el nodo de GKE correspondiente.
Describe los nodos:
kubectl describe node NODE_NAME | grep "topology.kubernetes.io/zone"
Reemplaza
NODE_NAME
por el nombre del conjunto de datos.El resultado es similar a este:
topology.kubernetes.io/zone: us-central1-a
Si deseas que GKE distribuya tus Pods de manera uniforme entre varias zonas para mejorar la conmutación por error en varios dominios con fallas, usa topologySpreadConstraints.
¿Qué sigue?
- Cargas de trabajo independientes de GKE entre sí
- Mantén el tráfico de red en la misma topología que el nodo
- Distribuye Pods en varios dominios con fallas