Escala una aplicación

En esta página, se explica cómo escalar una aplicación implementada en Google Kubernetes Engine.

Descripción general

Cuando implementas una aplicación en GKE, debes definir cuántas réplicas de la aplicación quieres ejecutar. Cuando escalas una aplicación, aumentas o disminuyes la cantidad de réplicas.

Cada réplica de tu aplicación representa un pod de Kubernetes que encapsula los contenedores de tu aplicación.

Antes de comenzar

Sigue estos pasos a fin de prepararte para esta tarea:

  • Asegúrate de haber habilitado la API de Google Kubernetes Engine.
  • Habilitar la API de Google Kubernetes Engine
  • Asegúrate de haber instalado el SDK de Cloud.
  • Establece tu ID del proyecto predeterminado:
    gcloud config set project [PROJECT_ID]
  • Si trabajas con clústeres zonales, establece tu zona de procesamiento predeterminada:
    gcloud config set compute/zone [COMPUTE_ZONE]
  • Si trabajas con clústeres regionales, establece tu región de procesamiento predeterminada:
    gcloud config set compute/region [COMPUTE_REGION]
  • Actualiza gcloud a la versión más reciente:
    gcloud components update

Inspecciona una aplicación

Antes de escalar tu aplicación, debes inspeccionarla y asegurarte de que esté en buen estado.

Para ver todas las aplicaciones que se implementaron en tu clúster, ejecuta kubectl get [CONTROLLER]. Sustituye [CONTROLLER] por deployments, statefulsets o, también, otro tipo de objeto de controlador.

Por ejemplo, si ejecutas kubectl get deployments y creas una sola implementación, el resultado del comando debería ser similar al siguiente:

NAME                  DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
my-app                1         1         1            1           10m

El resultado de este comando es similar para todos los objetos, pero puede parecer un tanto distinto. En el caso de las implementaciones, el resultado tiene seis columnas:

  • NAME enumera los nombres de las implementaciones en el clúster.
  • DESIRED muestra la cantidad deseada de réplicas o el estado deseado de la aplicación, que defines cuando creas la implementación.
  • CURRENT muestra cuántas réplicas se encuentran en ejecución en este momento.
  • UP-TO-DATE muestra la cantidad de réplicas que se actualizaron para alcanzar el estado deseado.
  • AVAILABLE muestra cuántas réplicas de la aplicación están disponibles para tus usuarios.
  • AGE muestra durante cuánto tiempo se ejecutó la aplicación en el clúster.

En este ejemplo, solo hay una implementación, my-app, que tiene una sola réplica, ya que su estado deseado es una réplica. Debes definir el estado deseado en el momento de la creación, y puedes cambiarlo en cualquier momento si escalas la aplicación.

Inspecciona StatefulSets

Antes de escalar un StatefulSet, debes ejecutar kubectl describe statefulset my-app para inspeccionarlo.

En el resultado de este comando, verifica el campo Estado del pod. Si el valor Failed es superior a 0, el escalamiento podría fallar.

Si un StatefulSet parece no estar en buen estado, ejecuta kubectl get pods para ver qué réplicas no están en buenas condiciones. Luego, ejecuta kubectl delete [POD], en el que [POD] es el nombre del pod que no se encuentra en buen estado.

Intentar escalar un StatefulSet cuando no está en buen estado puede hacer que se pierda su disponibilidad.

Escala una aplicación

En las secciones siguientes, se describe cada método que puedes usar para escalar una aplicación. El método kubectl scale es el modo más rápido de escalar. Sin embargo, es posible que prefieras otro método en algunas situaciones, como cuando actualizas archivos de configuración o realizas modificaciones in situ.

kubectl scale

kubectl scale te permite modificar de forma instantánea la cantidad de réplicas que deseas para ejecutar tu aplicación.

Para usar kubectl scale, especifica la cantidad nueva de réplicas mediante la configuración del marcador --replicas. Por ejemplo, para escalar my-app a cuatro réplicas, ejecuta el comando siguiente mediante la sustitución de [CONTROLADOR] por deployment, statefulset o, también, otro tipo de objeto controlador:

kubectl scale [CONTROLLER] my-app --replicas 4

Si se ejecuta de forma correcta, el resultado de este comando debe ser similar a deployment "my-app" scaled.

Luego, ejecuta el comando siguiente: kubectl get [CONTROLLER] my-app. El resultado debería ser similar al siguiente:

NAME                  DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
my-app                4         4         4            4           15m

kubectl apply

Puedes usar kubectl apply para aplicar un archivo de configuración nuevo a un objeto de controlador existente. kubectl apply es útil si se busca implementar varios cambios en un recurso y puede resultar beneficioso para los usuarios que prefieren administrar sus recursos en archivos de configuración.

Para escalar mediante kubectl apply, el archivo de configuración que proporciones debe incluir una cantidad nueva de réplicas en el campo replicas de la especificación del objeto.

La siguiente es una versión actualizada del archivo de configuración para el objeto de ejemplo my-app. En el ejemplo, se muestra una implementación, así que si usas otro tipo de controlador, como StatefulSet, debes cambia el kind según corresponda. Este ejemplo funciona mejor en un clúster con al menos tres nodos.

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app
spec:
  replicas: 3
  selector:
    matchLabels:
      app: app
  template:
    metadata:
      labels:
        app: app
    spec:
      containers:
      - name: my-container
        image: gcr.io/google-samples/hello-app:2.0

En este archivo, el valor del campo replicas es 3. El objeto my-app escala a tres réplicas cuando se aplica este archivo de configuración.

Para aplicar un archivo de configuración actualizado, ejecuta el comando siguiente:

kubectl apply -f config.yaml

Luego, ejecuta el comando siguiente: kubectl get [CONTROLLER] my-app. El resultado debería ser similar al siguiente:

NAME                  DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
my-app                3         3         3            3           15m

Console

Para escalar una carga de trabajo en Google Cloud Platform Console, realiza los pasos siguientes:

  1. Visita el menú Cargas de trabajo de Google Kubernetes Engine en GCP Console.

    Visitar el menú Cargas de trabajo

  2. Selecciona la carga de trabajo deseada del menú.

  3. Haz clic en Acciones, y luego en Escalar.

  4. En el campo Réplicas, ingresa la cantidad de réplicas deseadas.

  5. Haz clic en Escalar.

Realiza el ajuste de escala automático de las implementaciones

Puedes realizar el ajuste de escala automático de las implementaciones según el uso de CPU de pods mediante kubectl autoscale o desde el menú de cargas de trabajo de GKE en GCP Console.

kubectl autoscale

kubectl autoscale crea un objeto HorizontalPodAutoscaler (o HPA) que se orienta a un recurso especificado (denominado objetivo de escalamiento) y lo escala según sea necesario. El HPA ajusta la cantidad de réplicas del objetivo de escalamiento de forma periódica para que se ajuste al uso de CPU promedio que especificas.

Cuando usas kubectl autoscale, debes especificar una cantidad máxima y mínima de réplicas para tu aplicación, así como un objetivo de uso de CPU. Por ejemplo, para establecer la cantidad máxima de réplicas en seis y la mínima en cuatro, con un objetivo de uso de CPU del 50%, ejecuta el comando siguiente:

kubectl autoscale deployment my-app --max 6 --min 4 --cpu-percent 50

En este comando, se requiere la marca --max. La marca --cpu-percent representa el uso de CPU objetivo en todos los pod. Este comando no escala de inmediato la implementación a seis réplicas, a menos que ya exista una demanda del sistema.

Luego de ejecutar kubectl autoscale, se crea el objeto HorizontalPodAutoscaler y se orienta a la aplicación. Cuando hay un cambio en la carga, el objeto aumenta o disminuye las réplicas de la aplicación.

Para ver un objeto HorizontalPodAutoscaler específico de tu clúster, ejecuta el comando siguiente:

kubectl get hpa [HPA_NAME]

Para ver la configuración HorizontalPodAutoscaler, ejecuta lo siguiente:

kubectl get hpa [HPA_NAME] -o yaml

El resultado de este comando es similar al siguiente:

apiVersion: v1
items:
- apiVersion: autoscaling/v1
  kind: HorizontalPodAutoscaler
  metadata:
    creationTimestamp: ...
    name: [HPA_NAME]
    namespace: default
    resourceVersion: "664"
    selfLink: ...
    uid: ...
  spec:
    maxReplicas: 10
    minReplicas: 1
    scaleTargetRef:
      apiVersion: apps/v1
      kind: Deployment
      name: [HPA_NAME]
    targetCPUUtilizationPercentage: 50
  status:
    currentReplicas: 0
    desiredReplicas: 0
kind: List
metadata: {}
resourceVersion: ""
selfLink: ""

En este resultado de ejemplo, el campo targetCPUUtilizationPercentage contiene el valor de porcentaje 50 que se transfirió desde el ejemplo kubectl autoscale.

Si quieres ver una descripción detallada de un objeto HorizontalPodAutoscaler específico en el clúster, ejecuta el comando siguiente:

kubectl describe hpa [HPA_NAME]

Puedes modificar HorizontalPodAutoscaler si aplicas un archivo nuevo de configuración con kubectl apply, mediante kubectl edit o kubectl patch.

Para borrar un objeto HorizontalPodAutoscaler, sigue estos pasos:

kubectl delete hpa [HPA_NAME]

Console

Para realizar un ajuste de escala automático a una implementación, sigue los pasos siguientes:

  1. Visita el menú Cargas de trabajo de Google Kubernetes Engine en GCP Console.

    Visitar el menú Cargas de trabajo

  2. Selecciona la carga de trabajo deseada del menú.

  3. Haz clic en Acciones, y luego en Ajustar escala automáticamente.

  4. Completa el campo de Cantidad máxima de pods con la cantidad máxima de pods deseada.

  5. De manera opcional, completa los campos Cantidad mínima de pods y Porcentaje de uso de CPU objetivo con los valores deseados.

  6. Haz clic en Ajuste de escala automático.

Realiza el ajuste de escala automático con métricas personalizadas

Puedes escalar tus implementaciones en según las métricas personalizadas que se exportaron de [Stackdriver Kubernetes Engine Monitoring].

Si quieres obtener información sobre cómo usar métricas personalizadas para realizar un ajuste de escala automático a implementaciones, consulta el instructivo Realizar ajustes de escala automático a implementaciones con métricas personalizadas.

Pasos siguientes

¿Te ha resultado útil esta página? Enviar comentarios:

Enviar comentarios sobre...

Documentación de Kubernetes Engine