Implementa una aplicación en un destino con Canary

En esta guía de inicio rápido, se muestra cómo usar Cloud Deploy para entregar una imagen de aplicación de ejemplo en una implementación de versiones canary a Google Kubernetes Engine o a Cloud Run. (también puedes ejecutar una implementación de versiones canary en GKE Enterprise, pero solo se muestran GKE y Cloud Run en este guía de inicio rápido).

Una implementación de versiones canary divide el tráfico entre una versión ya implementada de la aplicación y la versión nueva. Cloud Run distribuye el tráfico según los porcentajes que configures en la canalización de entrega. GKE implementa la versión nueva en una proporción de pods. En este guía de inicio rápido, primero se implementa el 50% y, luego, el 100%.

En esta guía de inicio rápido, solo hay un destino, (prod). Por lo tanto, solo creamos un clúster de GKE o un servicio de Cloud Run para ejecutar tu aplicación.

En esta guía de inicio rápido, harás lo siguiente:

  1. Crea un clúster de GKE o define un servicio de Cloud Run.

    También puedes realizar implementaciones Canary en clústeres de GKE Enterprise, pero en esta guía de inicio rápido solo se usan GKE y Cloud Run.

  2. Crearás una configuración de Skaffold y un manifiesto de Kubernetes para especificar la imagen de contenedor (precompilada) que implementarás.

  3. Define la canalización de entrega de Cloud Deploy y el destino de implementación.

  4. Crea una versión para invocar tu canalización de entrega, que se implementará de forma automática en un destino.

    Esta primera versión omite la fase canary.

  5. Consulta la canalización de entrega y la versión en la consola de Google Cloud.

  6. Crea una segunda versión. Esta vez, ejecuta la etapa canary para implementar la aplicación al 50%.

  7. Avanza la versión para que se implemente al 100%.

Antes de comenzar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Cloud Deploy, Cloud Build, GKE, Cloud Run, and Cloud Storage APIs.

    Enable the APIs

  5. Install the Google Cloud CLI.
  6. To initialize the gcloud CLI, run the following command:

    gcloud init
  7. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  8. Make sure that billing is enabled for your Google Cloud project.

  9. Enable the Cloud Deploy, Cloud Build, GKE, Cloud Run, and Cloud Storage APIs.

    Enable the APIs

  10. Install the Google Cloud CLI.
  11. To initialize the gcloud CLI, run the following command:

    gcloud init
  12. Si ya tienes instalada la CLI, asegúrate de que estás ejecutando la versión más reciente:

    gcloud components update
    

  13. Asegúrate de que la cuenta de servicio predeterminada de Compute Engine tenga los permisos necesarios.

    Es posible que la cuenta de servicio ya tenga los permisos necesarios. Estos pasos se incluyen en los proyectos que inhabilitan la asignación automática de roles para las cuentas de servicio predeterminadas.

    1. Primero, agrega el rol clouddeploy.jobRunner:

      gcloud projects add-iam-policy-binding PROJECT_ID \
          --member=serviceAccount:$(gcloud projects describe PROJECT_ID \
          --format="value(projectNumber)")-compute@developer.gserviceaccount.com \
          --role="roles/clouddeploy.jobRunner"
      

    2. Agrega el rol de desarrollador para tu entorno de ejecución específico.
      • Para GKE y GKE con la API de Gateway:

        gcloud projects add-iam-policy-binding PROJECT_ID \
            --member=serviceAccount:$(gcloud projects describe PROJECT_ID \
            --format="value(projectNumber)")-compute@developer.gserviceaccount.com \
            --role="roles/container.developer"
        

      • Para Cloud Run:

        gcloud projects add-iam-policy-binding PROJECT_ID \
            --member=serviceAccount:$(gcloud projects describe PROJECT_ID \
            --format="value(projectNumber)")-compute@developer.gserviceaccount.com \
            --role="roles/run.developer"
        

    3. Agrega el rol iam.serviceAccountUser, que incluye el permiso actAs para implementar en el entorno de ejecución:

      gcloud iam service-accounts add-iam-policy-binding $(gcloud projects describe PROJECT_ID \
          --format="value(projectNumber)")-compute@developer.gserviceaccount.com \
          --member=serviceAccount:$(gcloud projects describe PROJECT_ID \
          --format="value(projectNumber)")-compute@developer.gserviceaccount.com \
          --role="roles/iam.serviceAccountUser" \
          --project=PROJECT_ID
      

Crea tu entorno de ejecución

GKE

Crea un clúster de Autopilot de GKE:

 gcloud container clusters create-auto canary-quickstart-cluster \
                  --project=PROJECT_ID \
                  --region=us-central1

GKE + API de Gateway

  1. Crea un clúster de GKE con la configuración recomendada para admitir su uso con Istio:

    gcloud container clusters create canary-quickstart-cluster \
           --machine-type=n1-standard-1 \
           --num-nodes 4 \
           --region=us-central1 \
           --project=PROJECT_ID
    
  2. Obtén las credenciales del clúster:

    gcloud container clusters get-credentials canary-quickstart-cluster \
           --project=PROJECT_ID \
           --region=us-central1
    
  3. Instala las CRD de la API de la puerta de enlace de Kubernetes si aún no están presentes en el clúster.

    kubectl apply -f https://github.com/kubernetes-sigs/gateway-api/releases/download/v0.6.2/standard-install.yaml
    
  4. Instala Istio para habilitar la implementación del controlador de puertas de enlace de Istio.

    curl -L https://istio.io/downloadIstio | ISTIO_VERSION=1.17.2 sh - \
    && ./istio-1.17.2/bin/istioctl install --set profile=minimal -y
    

Cloud Run

Si usas Cloud Run, puedes omitir este comando. No necesitas hacer nada aquí.

Prepara tu configuración de Skaffold y el manifiesto de la aplicación

Cloud Deploy usa Skaffold para proporcionar los detalles sobre qué implementar y cómo hacerlo de forma correcta en tu destino.

En esta guía de inicio rápido, crearás un archivo skaffold.yaml, que identifica el manifiesto de Kubernetes o la configuración del servicio de Cloud Run que se implementará.

  1. Abre una ventana de terminal.

  2. Crea un directorio nuevo y navega hasta él.

    GKE

    mkdir deploy-canary-quickstart-gke
    cd deploy-canary-quickstart-gke
    

    GKE + API de Gateway

    mkdir deploy-canary-quickstart-gke-gatewayapi
    cd deploy-canary-quickstart-gke-gatewayapi
    

    Cloud Run

    mkdir deploy-canary-quickstart-run
    cd deploy-canary-quickstart-run
    
  3. Crea un archivo llamado skaffold.yaml con el siguiente contenido:

    GKE

    apiVersion: skaffold/v4beta7
    kind: Config
    manifests:
      rawYaml:
      - kubernetes.yaml
    deploy:
      kubectl: {}
    

    GKE + API de Gateway

    apiVersion: skaffold/v4beta7
    kind: Config
    manifests:
      rawYaml:
      - kubernetes.yaml
    deploy:
      kubectl: {}
    

    Cloud Run

    apiVersion: skaffold/v4beta7
    kind: Config
    manifests:
      rawYaml:
      - run.yaml
    deploy:
      cloudrun: {}
    

    Este archivo es una configuración mínima de Skaffold que identifica tu manifiesto. En esta guía de inicio rápido, crearás el archivo. Sin embargo, también puedes hacer que Cloud Deploy cree uno por ti para aplicaciones simples que no sean de producción.

    Consulta la referencia de skaffold.yaml para obtener más información sobre este archivo.

  4. Crea el manifiesto de tu aplicación.

    GKE

    Crea un archivo llamado kubernetes.yaml en el directorio deploy-canary-quickstart-gke con el siguiente contenido:

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: my-deployment
      labels:
        app: my-app
      namespace: default
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: my-app
      template:
        metadata:
          labels:
            app: my-app
        spec:
          containers:
          - name: nginx
            image: my-app-image
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: my-service
      namespace: default
    spec:
      selector:
        app: my-app
      ports:
        - protocol: TCP
          port: 80
    

    Este archivo es un manifiesto de Kubernetes, que se aplica al clúster para implementar la aplicación. Este manifiesto incluye los recursos de servicio y de Deployment necesarios para la implementación de versiones canary, además de una HTTPRoute y el recurso de puerta de enlace necesarios para usar la API de puerta de enlace.

    La imagen del contenedor que se implementará se establece aquí como un marcador de posición, my-app-image, que se reemplaza por la imagen específica cuando creas la versión.

    GKE + API de Gateway

    Crea un archivo llamado kubernetes.yaml en el directorio deploy-canary-quickstart-gke-gatewayapi con el siguiente contenido:

    kind: Gateway
    apiVersion: gateway.networking.k8s.io/v1beta1
    metadata:
      name: my-gateway
      annotations:
        networking.istio.io/service-type: "ClusterIP"
    spec:
      gatewayClassName: istio
      listeners:
      - name: default
        hostname: "*.example.com"
        port: 80
        protocol: HTTP
        allowedRoutes:
          namespaces:
            from: All
    ---
    kind: HTTPRoute
    apiVersion: gateway.networking.k8s.io/v1beta1
    metadata:
      name: my-httproute
    spec:
      parentRefs:
      - kind: Gateway
        name: my-gateway
      hostnames:
      - "test.example.com"
      rules:
      - backendRefs:
        - name: my-service
          port: 80
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: my-service
    spec:
      selector:
        app: my-app
      ports:
      - name: tcp-port
        protocol: TCP
        port: 80
        targetPort: 8080
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: my-deployment
      labels:
        app: my-app
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: my-app
      template:
        metadata:
          labels:
            app: my-app
        spec:
          containers:
          - name: nginx
            image: my-app-image
    

    Este archivo es un manifiesto de Kubernetes, que se aplica al clúster para implementar la aplicación. Este manifiesto incluye los recursos de servicio y de Deployment necesarios para la implementación de versiones canary, además de una HTTPRoute y el recurso de puerta de enlace necesarios para usar la API de la puerta de enlace.

    La imagen del contenedor que se implementará se establece aquí como un marcador de posición, my-app-image, que se reemplaza por la imagen específica cuando creas la versión.

    Cloud Run

    Crea un archivo llamado run.yaml en el directorio deploy-canary-quickstart-run con el siguiente contenido:

    apiVersion: serving.knative.dev/v1
    kind: Service
    metadata:
      name: my-canary-run-service
    spec:
      template:
        spec:
          containers:
          - image: my-app-image
    

    Este archivo es una definición básica del servicio de Cloud Run, que se aplica en el momento de la implementación para crear tu servicio en Cloud Run. La imagen del contenedor que se implementará se establece aquí como un marcador de posición, my-app-image, que se reemplaza por la imagen específica cuando creas la versión.

Crea la canalización de entrega y los destinos

Puedes definir tu canalización de entrega y tus destinos en un archivo o en archivos separados. En esta guía de inicio rápido, crearemos un archivo para nuestra canalización y nuestro único objetivo:

GKE

Crea un archivo llamado clouddeploy.yaml en el directorio deploy-canary-quickstart-gke con el siguiente contenido:

apiVersion: deploy.cloud.google.com/v1
kind: DeliveryPipeline
metadata:
  name: my-canary-demo-app-1
description: main application pipeline
serialPipeline:
  stages:
  - targetId: prod
    profiles: []
    strategy:
      canary:
        runtimeConfig:
          kubernetes:
            serviceNetworking:
              service: "my-service"
              deployment: "my-deployment"
        canaryDeployment:
          percentages: [50]
          verify: false
---
apiVersion: deploy.cloud.google.com/v1
kind: Target
metadata:
  name: prod
description: prod GKE cluster
gke:
 cluster: projects/PROJECT_ID/locations/us-central1/clusters/canary-quickstart-cluster

GKE + API de Gateway

Crea un archivo llamado clouddeploy.yaml en el directorio deploy-canary-quickstart-gke-gatewayapi con el siguiente contenido:

apiVersion: deploy.cloud.google.com/v1
kind: DeliveryPipeline
metadata:
  name: my-canary-demo-app-1
description: main application pipeline
serialPipeline:
  stages:
  - targetId: prod
    profiles: []
    strategy:
      canary:
        runtimeConfig:
          kubernetes:
            gatewayServiceMesh:
              httpRoute: "my-httproute"
              service: "my-service"
              deployment: "my-deployment"
        canaryDeployment:
          percentages: [50]
          verify: false
---
apiVersion: deploy.cloud.google.com/v1
kind: Target
metadata:
  name: prod
description: prod GKE cluster
gke:
 cluster: projects/PROJECT_ID/locations/us-central1/clusters/canary-quickstart-cluster

Cloud Run

Crea un archivo llamado clouddeploy.yaml en el directorio deploy-canary-quickstart-run con el siguiente contenido:

apiVersion: deploy.cloud.google.com/v1
kind: DeliveryPipeline
metadata:
  name: my-canary-demo-app-1
description: main application pipeline
serialPipeline:
  stages:
  - targetId: prod
    profiles: []
    strategy:
      canary:
        runtimeConfig:
          cloudRun:
            automaticTrafficControl: true
        canaryDeployment:
          percentages: [50]
          verify: false
---
apiVersion: deploy.cloud.google.com/v1
kind: Target
metadata:
  name: prod
description: prod Run Service
run:
  location: projects/PROJECT_ID/locations/us-central1
  1. Registra tu canalización y tus destinos con el servicio de Cloud Deploy:

    gcloud deploy apply --file=clouddeploy.yaml --region=us-central1 --project=PROJECT_ID
    

    Ahora tienes una canalización, con un destino configurado para una estrategia de implementación de versiones canary.

  2. Confirma tu canalización y tus objetivos:

    En la consola de Google Cloud, navega a la página Canalizaciones de entrega de Cloud Deploy para ver una lista de las canalizaciones de entrega disponibles.

    Abrir la página Canalizaciones de entrega

    Se muestra la canalización de entrega que acabas de crear y el único objetivo que configuraste se enumera en la columna Destinos.

    Visualización de la canalización de entrega en la consola de Google Cloud

Crea una versión

Una versión es el recurso central de Cloud Deploy que representa los cambios que se implementarán. La canalización de entrega define el ciclo de vida de esa versión. Consulta la arquitectura del servicio de Cloud Deploy para obtener detalles sobre ese ciclo de vida.

Para crear un recurso release que represente la imagen del contenedor que se implementará, ejecuta el siguiente comando desde el directorio deploy-canary-quickstart-gke, deploy-canary-quickstart-gke-gatewayapi o deploy-canary-quickstart-run:

GKE

 gcloud deploy releases create test-release-001 \
   --project=PROJECT_ID \
   --region=us-central1 \
   --delivery-pipeline=my-canary-demo-app-1 \
   --images=my-app-image=gcr.io/google-containers/nginx@sha256:f49a843c290594dcf4d193535d1f4ba8af7d56cea2cf79d1e9554f077f1e7aaa

GKE + API de Gateway

 gcloud deploy releases create test-release-001 \
   --project=PROJECT_ID \
   --region=us-central1 \
   --delivery-pipeline=my-canary-demo-app-1 \
   --images=my-app-image=gcr.io/google-containers/nginx@sha256:f49a843c290594dcf4d193535d1f4ba8af7d56cea2cf79d1e9554f077f1e7aaa

Cloud Run

 gcloud deploy releases create test-release-001 \
   --project=PROJECT_ID \
   --region=us-central1 \
   --delivery-pipeline=my-canary-demo-app-1 \
   --images=my-app-image=us-docker.pkg.dev/cloudrun/container/hello@sha256:4a856b6f1c3ce723a456ddc2adfbb794cbfba93f727e2d96fcf6540bd0d6fff4

Observa la marca --images=, que usas para reemplazar el marcador de posición (my-app-image) en el manifiesto o la definición de servicio con la imagen específica calificada por SHA. Google recomienda que crees plantillas para tus manifiestos de esta manera y que uses nombres de imágenes calificados por SHA cuando crees la versión.

Cuando creas una versión, Cloud Deploy también crea automáticamente un recurso de lanzamiento para implementarlo de inmediato en tu único destino, prod.

Nos saltamos a la fase estable

Con esta primera versión, omitimos la fase Canary y realizamos la implementación al 100% (fase estable). Esto se debe a que la aplicación no se implementó anteriormente, por lo que no hay forma de calcular el 50% de los pods (para GKE) ni cómo se divide el tráfico para el servicio (para Cloud Run). Los pods (GKE) o las revisiones (Cloud Run) aún no existen.

Después de omitir la fase Canary, ya podemos comenzar la fase estable, que lleva el tráfico al 100%. Después de eso, crearemos otra versión que ejecutará la canary.

En una situación real, por lo general, ejecutarás una implementación de versiones canary en la que tu aplicación ya se está ejecutando, por lo que es poco probable que se omita esta fase.

Cómo ver la versión en la consola de Google Cloud

Ahora que creaste la primera versión, se creó el lanzamiento, y puedes ver la versión y el lanzamiento en la consola de Google Cloud. También puedes ver la visualización de la canalización, que muestra el estado actual del lanzamiento.

  1. En la consola de Google Cloud, navega a la página Canalizaciones de entrega de Cloud Deploy para ver la canalización de entrega my-canary-demo-app-1.

    Abrir la página Canalizaciones de entrega

  2. Haz clic en el nombre de tu canalización de entrega “my-canary-demo-app-1”.

    La visualización de la canalización muestra el estado de implementación de la app. Debido a que solo hay una etapa en la canalización, la visualización solo muestra un nodo.

    Visualización de la canalización de entrega en la consola de Google Cloud

    Y la versión aparece en la pestaña Versiones, en Detalles de la canalización de entrega.

  3. Haz clic en el nombre de la versión, test-release-001.

    Tus lanzamientos aparecerán en Lanzamientos. Puedes hacer clic en un lanzamiento para ver sus detalles, incluido el registro de implementación.

    lanzamientos en la consola de Google Cloud

    Observa que el estado del lanzamiento es "Pendiente de avance" y que el objetivo que se muestra en la visualización de la canalización tiene un vínculo para "Avanzar a estable".

Avanza la fase de lanzamiento

Después de la primera versión, se omitió la fase canary, y el lanzamiento está esperando para iniciar la fase "estable", que implementa la aplicación al 100%:

  1. En la visualización de la canalización, haz clic en Advance to stable.

  2. Cuando se te solicite, haz clic en Advance para confirmar.

Después de unos minutos, el lanzamiento está en la fase "estable" y la aplicación se implementa al 100%.

canalización de entrega en fase estable

Ejecuta la implementación de versiones canary

Como la primera versión omití la fase Canary, ahora crearemos otra versión, que esta vez ejecutará una implementación Canary.

  1. Para crear un release nuevo, ejecuta el siguiente comando desde el directorio deploy-canary-quickstart-gke, deploy-canary-quickstart-gke-gatewayapi o deploy-canary-quickstart-run:

    GKE

    gcloud deploy releases create test-release-002 \
      --project=PROJECT_ID \
      --region=us-central1 \
      --delivery-pipeline=my-canary-demo-app-1 \
      --images=my-app-image=gcr.io/google-containers/nginx@sha256:f49a843c290594dcf4d193535d1f4ba8af7d56cea2cf79d1e9554f077f1e7aaa
    

    GKE + API de Gateway

    gcloud deploy releases create test-release-002 \
      --project=PROJECT_ID \
      --region=us-central1 \
      --delivery-pipeline=my-canary-demo-app-1 \
      --images=my-app-image=gcr.io/google-containers/nginx@sha256:f49a843c290594dcf4d193535d1f4ba8af7d56cea2cf79d1e9554f077f1e7aaa
    

    Cloud Run

    gcloud deploy releases create test-release-002 \
      --project=PROJECT_ID \
      --region=us-central1 \
      --delivery-pipeline=my-canary-demo-app-1 \
      --images=my-app-image=us-docker.pkg.dev/cloudrun/container/hello@sha256:4a856b6f1c3ce723a456ddc2adfbb794cbfba93f727e2d96fcf6540bd0d6fff4
    

    Después de unos minutos, se crea un lanzamiento y, esta vez, se ejecuta la etapa canary:

    Canalización de entrega que inicia la fase de Canary

    Cuando finaliza la primera fase del lanzamiento, este pasa a la fase canary:

    Visualización de la canalización de entrega en la consola de Google Cloud, con la aplicación implementada al 50%

    Esto significa que la aplicación ahora se implementa en un 50%. En el caso de GKE basado en serviceNetworking, se implementa en la mitad de tus pods. En el caso de GKE y Cloud Run basados en la API de Gateway, el tráfico se asigna al 50%.

  2. Haz clic en Lanzamiento avanzado y, luego, en Avanzar cuando se te solicite.

    Esto avanza el lanzamiento a la fase "estable" y, luego, implementa la aplicación al 100%.

    canalización de entrega en fase estable, implementada al 100%

Limpia

Sigue estos pasos para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos que usaste en esta página.

  1. Borra el clúster de canary-quickstart-cluster (solo GKE):

    gcloud container clusters delete canary-quickstart-cluster --region=us-central1 --project=PROJECT_ID
    
  2. Borra el servicio my-canary-run-service (solo en Cloud Run):

    gcloud run services delete my-canary-run-service --region=us-central1 --project=PROJECT_ID
    
  3. Borra la canalización de entrega, el destino y todos los recursos de lanzamiento y lanzamiento:

    gcloud deploy delete --file=clouddeploy.yaml --force --region=us-central1 --project=PROJECT_ID
    
  4. Borra los buckets de Cloud Storage que creó Cloud Deploy.

    Uno termina con _clouddeploy y el otro es [region].deploy-artifacts.[project].appspot.com.

    Abrir la página del navegador de Cloud Storage

Eso es todo, finalizaste la guía de inicio rápido.

¿Qué sigue?