Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Comienza a usar Endpoints para GKE con ESPv2

En este instructivo, se muestra cómo implementar un ejemplo simple del servicio gRPC con el proxy de servicio extensible V2 (ESPv2) en Google Kubernetes Engine (GKE). En este instructivo, se usa la versión de Python del bookstore-grpc de muestra. Consulta la sección Pasos siguientes para ver muestras de gRPC en otros lenguajes.

Además, se usan imágenes de contenedor compiladas con anterioridad del código de muestra y el ESPv2, que se almacenan en Container Registry. Si no estás familiarizado con los contenedores, consulta las páginas siguientes para obtener más información:

Si quieres obtener una descripción general de Cloud Endpoints, consulta Acerca de Endpoints y Arquitectura de Endpoints.

Objetivos

Usa la siguiente lista de tareas de alto nivel a medida que avanzas en el instructivo. Todas las tareas son necesarias para enviar solicitudes a la API con éxito.

  1. Configura un proyecto de Google Cloud y descarga el software necesario. Consulta Antes de comenzar.
  2. Copia y configura los archivos del bookstore-grpc de muestra. Consulta Cómo configurar Endpoints.
  3. Implementa la configuración de Endpoints para crear un servicio de Endpoints. Consulta Cómo configurar Endpoints.
  4. Crea un backend para entregar la API y, luego, implementarla. Consulta Implementa el backend de la API.
  5. Obtén la dirección IP externa del servicio. Consulta Cómo obtener la dirección IP externa del servicio.
  6. Envía una solicitud a la API. Consulta Enviar una solicitud a la API.
  7. Evita que se generen cargos en tu cuenta de Google Cloud. Consulta Realiza una limpieza.

Costos

En este instructivo, se usan los siguientes componentes facturables de Google Cloud:

Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios. Es posible que los usuarios nuevos de Google Cloud sean aptos para obtener una prueba gratuita.

Cuando finalices este instructivo, podrás borrar los recursos creados para evitar que se te siga facturando. Para obtener más información, consulta cómo hacer una limpieza.

Antes de comenzar

  1. Accede a tu Cuenta de Google.

    Si todavía no tienes una cuenta, regístrate para obtener una nueva.

  2. En la página del selector de proyectos de Google Cloud Console, selecciona o crea un proyecto de Google Cloud.

    Ir a la página del selector de proyectos

  3. Asegúrate de que la facturación esté habilitada para tu proyecto de Cloud. Descubre cómo confirmar que tienes habilitada la facturación en un proyecto.

  4. Toma nota del ID del proyecto de Google Cloud, ya que lo necesitarás más adelante.
  5. Instala e inicializa el SDK de Cloud.
  6. Actualiza el SDK de Cloud y, luego, instala los componentes de Endpoints.
    gcloud components update
  7. Asegúrate de que el SDK de Cloud (gcloud) esté autorizado para acceder a tus datos y servicios en Google Cloud:
    gcloud auth login
    Se abrirá una nueva pestaña del navegador y se te solicitará que elijas una cuenta.
  8. Configura el proyecto predeterminado con el ID de tu proyecto.
    gcloud config set project YOUR_PROJECT_ID

    Reemplaza YOUR_PROJECT_ID con el ID del proyecto.

    Si tienes otros proyectos de Google Cloud y quieres usar gcloud para administrarlos, consulta la sección sobre cómo administrar los parámetros de configuración del SDK de Cloud.

  9. Instala kubectl:
    gcloud components install kubectl
  10. Adquiere nuevas credenciales de usuario para usar como credenciales predeterminadas de la aplicación. Las credenciales del usuario son necesarias para autorizar kubectl.
    gcloud auth application-default login
    Se abrirá una nueva pestaña del navegador donde debes elegir una cuenta.
  11. Sigue los pasos en la Guía de inicio rápido de Python de gRPC para instalar gRPC y sus herramientas.

Configura Endpoints

El bookstore-grpc de muestra contiene los archivos que necesitas copiar y configurar de forma local.

  1. Crea un archivo descriptor protobuf autónomo desde tu archivo de servicio .proto:
    1. Guarda una copia de bookstore.proto del repositorio de ejemplo. Este archivo define la API del servicio de Bookstore.
    2. Crea el directorio siguiente: mkdir generated_pb2
    3. Crea api_descriptor.pb, el archivo descriptor, mediante el compilador de búferes de protocolo protoc. Ejecuta el comando siguiente en el directorio donde guardaste bookstore.proto:
      python -m grpc_tools.protoc \
          --include_imports \
          --include_source_info \
          --proto_path=. \
          --descriptor_set_out=api_descriptor.pb \
          --python_out=generated_pb2 \
          --grpc_python_out=generated_pb2 \
          bookstore.proto
      

      En el comando anterior, --proto_path se configura como el directorio de trabajo actual. En tu entorno de compilación de gRPC, si usas un directorio diferente para los archivos de entrada .proto, cambia --proto_path a fin de que el compilador busque el directorio donde guardaste bookstore.proto.

  2. Crea un archivo de configuración YAML para la API de gRPC:
    1. Guarda una copia del archivo api_config.yaml. Este archivo define la configuración de la API de gRPC para el servicio de Bookstore.
    2. Reemplaza MY_PROJECT_ID en tu archivo api_config.yaml con el ID de tu proyecto de Google Cloud. Por ejemplo:
      #
      # Name of the service configuration.
      #
      name: bookstore.endpoints.example-project-12345.cloud.goog
      

      Ten en cuenta que el valor del campo apis.name en este archivo coincide con exactitud con el nombre de API calificado por completo del archivo .proto; de lo contrario, la implementación no funcionará. El servicio de Bookstore se define en bookstore.proto dentro del paquete endpoints.examples.bookstore. Su nombre de API calificado por completo es endpoints.examples.bookstore.Bookstore, tal como aparece en el archivo api_config.yaml.

      apis:
        - name: endpoints.examples.bookstore.Bookstore
      

Consulta Configurar Endpoints para obtener más información.

Implemente la configuración de Endpoints

Para implementar la configuración de Endpoints, usa el comando gcloud endpoints services deploy. Este comando usa Service Management a fin de crear un servicio administrado.

  1. Asegúrate de estar en el directorio en el que se encuentran los archivos api_descriptor.pb y api_config.yaml.
  2. Confirma que el proyecto predeterminado que se usa actualmente en la herramienta de línea de comandos de gcloud sea el proyecto de Google Cloud en el que deseas implementar la configuración de Endpoints. Valida el ID del proyecto que se muestra en el comando siguiente para asegurarte de que el servicio no se cree en el proyecto equivocado.
    gcloud config list project
    

    Si necesitas cambiar el proyecto predeterminado, ejecuta el siguiente comando:

    gcloud config set project YOUR_PROJECT_ID
    
  3. Implementa el archivo proto descriptor y el archivo de configuración mediante la herramienta de línea de comandos de gcloud:
    gcloud endpoints services deploy api_descriptor.pb api_config.yaml
    

    Mientras se crea y configura el servicio, Service Management exporta la información a la terminal. Cuando se completa la implementación, aparece un mensaje similar al siguiente:

    Service Configuration [CONFIG_ID] uploaded for service [bookstore.endpoints.example-project.cloud.goog]

    CONFIG_ID es el ID de configuración único del servicio de Endpoints que creó la implementación. Por ejemplo:

    Service Configuration [2017-02-13r0] uploaded for service [bookstore.endpoints.example-project.cloud.goog]
    

    En el ejemplo anterior, 2017-02-13r0 es el ID de configuración del servicio y bookstore.endpoints.example-project.cloud.goog es el nombre del servicio. El ID de configuración del servicio consiste en una marca de fecha seguida de un número de revisión. Si implementas la configuración de Endpoints otra vez el mismo día, el número de revisión aumenta en el ID de configuración del servicio.

Verifica los servicios requeridos

Como mínimo, Endpoints y ESP requieren que se habiliten los siguientes servicios de Google:
Name Cargo
servicemanagement.googleapis.com API de Administración de servicios
servicecontrol.googleapis.com API de Control de servicios
endpoints.googleapis.com Google Cloud Endpoints

En la mayoría de los casos, el comando de gcloud endpoints services deploy habilita estos servicios obligatorios. Sin embargo, el comando gcloud se completa de manera correcta sin habilitar los servicios requeridos en las circunstancias siguientes:

  • Usaste una aplicación de terceros, como Terraform, y no incluiste estos servicios.

  • Si implementaste la configuración de Endpoints en un proyecto existente de Google Cloud en el que se inhabilitaron explícitamente estos servicios

Usa el siguiente comando para confirmar que los servicios requeridos están habilitados:

gcloud services list

Si no ves los servicios necesarios que se incluyeron en la lista, habilítalos:

gcloud services enable servicemanagement.googleapis.com
gcloud services enable servicecontrol.googleapis.com
gcloud services enable endpoints.googleapis.com

También habilita el servicio de Endpoints:

gcloud services enable ENDPOINTS_SERVICE_NAME

Para determinar la variable ENDPOINTS_SERVICE_NAME, puedes hacer lo siguiente:

  • Después de implementar la configuración de Endpoints, ve a la página Endpoints en Cloud Console. La lista de posibles ENDPOINTS_SERVICE_NAME se muestra en la columna Nombre del servicio.

  • Para OpenAPI, el ENDPOINTS_SERVICE_NAME es lo que especificaste en el campo host de tu especificación de OpenAPI. Para gRPC, el ENDPOINTS_SERVICE_NAME es lo que especificaste en el campo name de tu configuración de Endpoints de gRPC.

Para obtener más información sobre los comandos gcloud, consulta servicios de gcloud.

Si recibes un mensaje de error, consulta Solucionar problemas con la implementación de la configuración de Cloud Endpoints.

Consulta Implementar la configuración de Endpoints para obtener información adicional.

Implemente el backend de la API

Hasta ahora, implementaste la configuración de servicio en la Administración de servicios, pero aún no implementaste el código que entrega el backend de la API. En esta sección, se explica cómo crear un clúster de GKE para alojar el backend de la API y, así, implementar la API.

Cómo crear un clúster del contenedor

Para crear un clúster del contenedor destinado a nuestro ejemplo, sigue estos pasos:

  1. En Google Cloud Console, ve a la página de clústeres de Kubernetes.

    Ir a la página Clústeres de Kubernetes

  2. Haz clic en Crear clúster.
  3. Acepta la configuración predeterminada y haz clic en Crear. Toma nota del nombre y la zona del clúster, ya que son necesarios más adelante en este instructivo.

Autentica kubectl al clúster del contenedor

Si quieres usar kubectl para crear y administrar recursos de clústeres, necesitas obtener credenciales para tu clúster y hacer que estén disponibles para kubectl. Para hacer esto, ejecuta el siguiente comando y reemplaza NAME por tu nuevo nombre de clúster y ZONE por su zona de clúster.

gcloud container clusters get-credentials NAME --zone ZONE

Verifica los permisos necesarios

Sigue esta recomendación de permisos para elegir una cuenta de servicio de nodo adecuada como identidad con el fin de comunicarse con los servicios de Google. El ESP y el ESPv2 deben comunicarse con ServiceController de Google y Stackdriver. Se requieren funciones de IAM adicionales para la cuenta de servicio de nodo que ejecuta el ESP y el ESPv2.

Si la cuenta de servicio de nodo no es la cuenta de servicio predeterminada de Compute Engine, sigue el paso siguiente para agregar las funciones de IAM necesarias:

Agrega las funciones requeridas de IAM:

Las siguientes funciones de IAM son necesarias para la cuenta de servicio que se usa en el ESP y el ESPv2.

Para agregar las funciones de IAM de controlador de servicio y de agente de Cloud Trace a la cuenta de servicio, sigue estos pasos:

Console

  1. En Cloud Console, selecciona el proyecto en el que se creó tu cuenta de servicio.
  2. Abre la página IAM/Iam

    Ir a la página IAM/Iam

    . La página debería enumerar todos los miembros de IAM, incluidas todas las cuentas de servicio.
  3. Selecciona tu cuenta de servicio y haz clic en el marcador Editar a la derecha.
  4. Se abrirá un panel de Editar permisos.
  5. Haz clic en + Agregar otra función.
  6. Haz clic en Seleccionar una función y selecciona Administración de servicio > Controlador de servicio.
  7. Haz clic en + Agregar otra función.
  8. Haz clic en Seleccionar una función y selecciona Cloud Trace > Agente de Cloud Trace.
  9. Haga clic en Save.
  10. Ahora deberías ver las funciones Control de servicio y Agente de Cloud Trace en la columna función de tu cuenta de servicio en la página de IAM.

gcloud

  1. Agrega la función de controlador de servicio:

    gcloud projects add-iam-policy-binding PROJECT_ID \
            --member serviceAccount:SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com \
            --role roles/servicemanagement.serviceController
  2. Agrega la función de Agente de Cloud Trace para habilitar Cloud Trace:

    gcloud projects add-iam-policy-binding PROJECT_ID \
            --member serviceAccount:SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com \
            --role roles/cloudtrace.agent

Para obtener más información, consulta ¿Qué son las funciones y los permisos?

Workload Identity:

Si se usa Workload Identity, se puede usar una cuenta de servicio distinta de la cuenta de servicio de nodo para comunicarse con los servicios de Google. Puedes crear una cuenta de servicio de Kubernetes para que el pod ejecute el ESP y el ESPv2, una cuenta de servicio de Google y puedes asociar la cuenta de servicio de Kubernetes a la cuenta de servicio de Google.

Sigue estos pasos para asociar una cuenta de servicio de Kubernetes a una cuenta de servicio de Google.

La cuenta de servicio de Google debe tener funciones de IAM obligatorias. De lo contrario, sigue el paso para agregar funciones de IAM necesarias a fin de agregarlas.

Implementa la API de muestra y el ESPv2 en el clúster

Para implementar el servicio gRPC de muestra en el clúster de manera que los clientes puedan usarlo, sigue estos pasos:

  1. git clone este repositorio y abre para editar el archivo de manifiesto de implementación grpc-bookstore.yaml.
  2. Reemplaza SERVICE_NAME por el nombre de tu servicio de Endpoints. Este es el mismo nombre que configuraste en el campo name del archivo api_config.yaml.
    spec:
      containers:
      - name: esp
        image: gcr.io/endpoints-release/endpoints-runtime:2
        args: [
          "--listener_port=9000",
          "--service=SERVICE_NAME",
          "--rollout_strategy=managed",
          "--backend=grpc://127.0.0.1:8000"
        ]
        ports:
          - containerPort: 9000
      - name: bookstore
        image: gcr.io/endpointsv2/python-grpc-bookstore-server:1
        ports:
          - containerPort: 8000

    La opción --rollout_strategy=managed configura el ESPv2 para que use la configuración del servicio implementado más reciente. Cuando especificas esta opción, el ESPv2 detecta el cambio y comienza a aplicarlo de forma automática dentro del minuto siguiente a la implementación de una configuración de servicio nueva. Te recomendamos que especifiques esta opción en lugar de proporcionar un ID de configuración específico para que use el ESPv2. Si quieres obtener más detalles sobre los argumentos del ESPv2, consulta las opciones de inicio del ESPv2.

    Por ejemplo:

        spec:
          containers:
          - name: esp
            image: gcr.io/endpoints-release/endpoints-runtime:2
            args: [
              "--listener_port=9000",
              "--service=bookstore.endpoints.example-project-12345.cloud.goog",
              "--rollout_strategy=managed",
              "--backend=grpc://127.0.0.1:8000"
            ]
    
  3. Inicia el servicio:
    kubectl create -f grpc-bookstore.yaml
    

Si recibes un mensaje de error, consulta Cómo solucionar problemas de Cloud Endpoints en GKE.

Cómo obtener la dirección IP externa de la API

Necesitas la dirección IP externa del servicio para enviar solicitudes a la API de muestra. Es posible que la dirección IP externa tarde unos minutos en estar lista después de que inicies tu servicio en el contenedor.

  1. Para ver la dirección IP externa, sigue estos pasos:

    kubectl get service

  2. Toma nota del valor de EXTERNAL-IP y guárdalo en una variable de entorno SERVER_IP. La dirección IP externa se usa para enviar solicitudes a la API de muestra.

    export SERVER_IP=YOUR_EXTERNAL_IP
    

Envía una solicitud a la API

Para enviar solicitudes a la API de muestra, puedes usar un cliente gRPC de muestra escrito en Python.

  1. Clona el repositorio de Git donde se aloja el código del cliente gRPC:

    git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git
       

  2. Cambia tu directorio de trabajo:

    cd python-docs-samples/endpoints/bookstore-grpc/
      

  3. Instala las dependencias:

    pip install virtualenv
    virtualenv env
    source env/bin/activate
    python -m pip install -r requirements.txt
    

  4. Envía una solicitud a la API de muestra:

    python bookstore_client.py --host SERVER_IP --port 80
    

Si no obtienes una respuesta correcta, consulta Solucionar errores en las respuestas.

¡Acabas de implementar y probar una API en Endpoints!

Realice una limpieza

Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.

  1. Borra la API:

    gcloud endpoints services delete SERVICE_NAME
    

    Reemplaza SERVICE_NAME por el nombre de tu API.

  2. Borra el clúster de GKE:

    gcloud container clusters delete NAME --zone ZONE
    

¿Qué sigue?