Iniziare a utilizzare Endpoints per GKE con ESP


Questo tutorial mostra come eseguire il deployment di un semplice servizio gRPC di esempio con il proxy di servizio Extensible (ESP) su Google Kubernetes Engine (GKE). Questo tutorial utilizza la versione Python dell'esempio bookstore-grpc. Consulta la sezione Passaggi successivi per gli esempi gRPC in altri linguaggi.

Il tutorial utilizza immagini container precompilate del codice campione e dell'ESP, archiviate in Artifact Registry. Se non hai familiarità con i container, consulta quanto segue per saperne di più:

Per una panoramica di Cloud Endpoints, consulta Informazioni su Endpoints e Architettura di Endpoints.

Obiettivi

Segui il seguente elenco di attività di alto livello durante il tutorial. Tutte le attività sono necessarie per inviare correttamente le richieste all'API.

  1. Configura un progetto Google Cloud e scarica il software richiesto. Vedi Prima di iniziare.
  2. Copia e configura i file dall'esempio bookstore-grpc. Consulta Configurare Endpoints.
  3. Esegui il deployment della configurazione di Endpoints per creare un servizio Endpoints. Consulta Eseguire il deployment della configurazione di Endpoints.
  4. Crea un backend per pubblicare l'API e esegui il deployment dell'API. Consulta Eseguire il deployment del backend dell'API.
  5. Recupera l'indirizzo IP esterno del servizio. Consulta Ottenere l'indirizzo IP esterno del servizio.
  6. Invia una richiesta all'API. Consulta Invio di una richiesta all'API.
  7. Evita che al tuo account Google Cloud vengano addebitati costi. Consulta Pulizia.

Costi

In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi basata sull'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Al termine delle attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la sezione Pulizia.

Prima di iniziare

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Prendi nota dell'ID progetto Google Cloud perché ti servirà in seguito.
  7. Installa e inizializza Google Cloud CLI.
  8. Aggiorna l'interfaccia alla gcloud CLI e installa i componenti di Endpoints.
    gcloud components update
  9. Assicurati che Google Cloud CLI (gcloud) sia autorizzato ad accedere ai tuoi dati e servizi su Google Cloud:
    gcloud auth login
    Si apre una nuova scheda del browser e ti viene chiesto di scegliere un account.
  10. Imposta il progetto predefinito sul tuo ID progetto.
    gcloud config set project YOUR_PROJECT_ID

    Sostituisci YOUR_PROJECT_ID con l'ID progetto.

    Se hai altri progetti Google Cloud e vuoi utilizzarli con gcloud per gestirli, consulta Gestire la gcloud CLI gcloud.

  11. Installa kubectl:
    gcloud components install kubectl
  12. Acquisisci nuove credenziali utente da utilizzare come credenziali predefinite dell'applicazione. Le credenziali utente sono necessarie per autorizzare kubectl.
    gcloud auth application-default login
    Nella nuova scheda del browser che si apre, scegli un account.
  13. Segui i passaggi descritti nella guida introduttiva di gRPC per Python per installare gRPC e gli strumenti gRPC.

Configurazione di Endpoints

L'esempio bookstore-grpc contiene i file che devi copiare e configurare localmente.

  1. Crea un file descrittore protobuf autonomo dal file .proto del servizio:
    1. Salva una copia di bookstore.proto dal repository di esempio. Questo file definisce l'API del servizio Bookstore.
    2. Crea la seguente directory: mkdir generated_pb2
    3. Crea il file descrittore api_descriptor.pb utilizzando il compilatore di buffer di protocollo protoc. Esegui questo comando nella directory in cui hai salvato bookstore.proto:
      python -m grpc_tools.protoc \
          --include_imports \
          --include_source_info \
          --proto_path=. \
          --descriptor_set_out=api_descriptor.pb \
          --python_out=generated_pb2 \
          --grpc_python_out=generated_pb2 \
          bookstore.proto

      Nel comando precedente, --proto_path è impostato sul valore attuale nella directory di lavoro. Nel tuo ambiente di build gRPC, se utilizzi un'interfaccia directory per .proto file di input, modifica --proto_path in modo che il compilatore cerca nella directory in cui hai salvato bookstore.proto.

  2. Crea un file YAML di configurazione dell'API gRPC:
    1. Salva una copia del api_config.yamlfile. Questo file definisce la configurazione dell'API gRPC per il servizio Bookstore.
    2. Sostituisci MY_PROJECT_ID nel file api_config.yaml con l'ID progetto Google Cloud. Ad esempio:
      #
      # Name of the service configuration.
      #
      name: bookstore.endpoints.example-project-12345.cloud.goog
      

      Tieni presente che il valore del campo apis.name in questo file corrisponde esattamente al nome completo dell'API nel file .proto. In caso contrario, il deployment non funzionerà. Il servizio Bookstore è definito in bookstore.proto all'interno del pacchetto endpoints.examples.bookstore. Il nome completo dell'API è endpoints.examples.bookstore.Bookstore, proprio come appare nel file api_config.yaml.

      apis:
        - name: endpoints.examples.bookstore.Bookstore

Per ulteriori informazioni, consulta Configurare gli endpoint.

esegui il deployment della configurazione di Endpoints

Per eseguire il deployment della configurazione di Endpoints, utilizza il comando gcloud endpoints services deploy. Questo comando utilizza Gestione dei servizi per creare un servizio gestito.

  1. Assicurati di trovarti nella directory in cui si trovano i file api_descriptor.pb e api_config.yaml.
  2. Conferma che il progetto predefinito a riga di comando gcloud attualmente in uso è il progetto Google Cloud che vuoi eseguire il deployment della configurazione di Endpoints. Convalida l'ID progetto restituito dal seguente comando per assicurarti che il servizio non venga creato nel progetto sbagliato.
    gcloud config list project
    

    Se devi modificare il progetto predefinito, esegui questo comando:

    gcloud config set project YOUR_PROJECT_ID
    
  3. Esegui il deployment del file proto descriptor e del file di configurazione utilizzando l'interfaccia a riga di comando Google Cloud:
    gcloud endpoints services deploy api_descriptor.pb api_config.yaml
    

    Durante la creazione e la configurazione del servizio, Service Management genera le informazioni al terminale. Al termine del deployment, verrà visualizzato un messaggio simile a viene visualizzato quanto segue:

    Service Configuration [CONFIG_ID] uploaded for service [bookstore.endpoints.example-project.cloud.goog]

    CONFIG_ID è la configurazione univoca del servizio Endpoints ID creato dal deployment. Ad esempio:

    Service Configuration [2017-02-13r0] uploaded for service [bookstore.endpoints.example-project.cloud.goog]
    

    Nell'esempio precedente, 2017-02-13r0 è l'ID configurazione del servizio e bookstore.endpoints.example-project.cloud.goog è il nome del servizio. L'ID configurazione del servizio è costituito da una data seguita da un numero di revisione. Se esegui il deployment della configurazione di Endpoints sempre nello stesso giorno, il numero di revisione viene incrementato o l'ID configurazione.

Verifica dei servizi richiesti

Come minimo, Endpoints ed ESP richiedono l'attivazione dei seguenti servizi Google:
Nome Titolo
servicemanagement.googleapis.com API Service Management
servicecontrol.googleapis.com API Service Control

Nella maggior parte dei casi, il comando gcloud endpoints services deploy attiva questi servizi obbligatori. Tuttavia, il comando gcloud viene completato correttamente, ma non attiva i servizi richiesti nelle seguenti circostanze:

  • Se hai utilizzato un'applicazione di terze parti come Terraform e non includi questi servizi.

  • Hai eseguito il deployment della configurazione di Endpoints in un progetto Google Cloud esistente in cui questi servizi sono stati disattivati esplicitamente.

Utilizza il seguente comando per verificare che i servizi richiesti siano abilitati:

gcloud services list

Se non vedi i servizi richiesti nell'elenco, attivali:

gcloud services enable servicemanagement.googleapis.com
gcloud services enable servicecontrol.googleapis.com

Abilita anche il servizio Endpoints:

gcloud services enable ENDPOINTS_SERVICE_NAME

Per determinare ENDPOINTS_SERVICE_NAME, puoi:

  • Dopo aver eseguito il deployment della configurazione di Endpoints, vai alla pagina Endpoints nella console Cloud. L'elenco dei possibili ENDPOINTS_SERVICE_NAME è riportato nella colonna Nome servizio.

  • Per OpenAPI, ENDPOINTS_SERVICE_NAME è il valore specificato nel campo host della specifica OpenAPI. Per gRPC, ENDPOINTS_SERVICE_NAME è il valore specificato nel campo name della configurazione degli endpoint gRPC.

Per ulteriori informazioni sui comandi gcloud, consulta Servizi gcloud.

Se viene visualizzato un messaggio di errore, consulta Risoluzione dei problemi di deployment della configurazione di Endpoints.

Per ulteriori informazioni, consulta Eseguire il deployment della configurazione di Endpoints.

esegui il deployment del backend dell'API

Fino a questo punto, hai eseguito il deployment della configurazione del servizio in Service Management, ma non hai ancora eseguito il deployment del codice soggiacente al backend dell'API. Questa sezione descrive la procedura per creare un cluster GKE per ospitare il backend dell'API ed eseguire il deployment dell'API.

Creazione di un cluster di container

Per creare un cluster di container per il nostro esempio:

  1. Nella console Google Cloud, vai alla pagina Cluster Kubernetes.

    Vai alla pagina dei cluster Kubernetes

  2. Fai clic su Crea cluster.
  3. Accetta le impostazioni predefinite e fai clic su Crea. Prendi nota del nome e della zona del cluster, poiché ti serviranno più avanti in questo tutorial.

Autenticazione di kubectl al cluster di container

Per utilizzare kubectl per creare e gestire le risorse del cluster, devi recuperare le credenziali del cluster e renderle disponibili per kubectl. Per farlo, esegui il seguente comando sostituendo NAME con il nome del nuovo cluster e ZONE con la relativa zona.

gcloud container clusters get-credentials NAME --zone ZONE

Controllo delle autorizzazioni richieste

ESP ed ESPv2 chiamano i servizi Google che utilizzano IAM per verificare se l'identità chiamante dispone di autorizzazioni sufficienti per accedere alle risorse IAM utilizzate. L'identità chiamante è l'account di servizio associato che esegue il deployment di ESP e ESPv2.

Quando viene eseguito il deployment in un pod GKE, l'account di servizio associato è l'account di servizio del nodo. Di solito si tratta dell'account di servizio predefinito di Compute Engine. Segui questo consiglio sulle autorizzazioni per scegliere un account di servizio del nodo appropriato.

Se viene utilizzato Workload Identity, è possibile utilizzare un account di servizio distinto dall'account di servizio del nodo per comunicare con i servizi Google. Puoi creare un account di servizio Kubernetes per il pod in cui eseguire ESP ed ESPv2, creare un account di servizio Google e associare l'account di servizio Kubernetes all'account di servizio Google.

Segui questi passaggi per associare un account di servizio Kubernetes a un account di servizio Google. Questo account di servizio Google è l'account di servizio associato.

Se l'account di servizio associato è il service account predefinito di Compute Engine del progetto e la configurazione del servizio di endpoint è dipiattata nello stesso progetto, l'account di servizio deve avere autorizzazioni sufficienti per accedere alle risorse IAM. Puoi saltare il passaggio di configurazione dei ruoli IAM. In caso contrario, i seguenti ruoli IAM devono essere aggiunti all'account di servizio associato.

Aggiungi i ruoli IAM richiesti:

Questa sezione descrive le risorse IAM utilizzate da ESP e ESPv2 e i ruoli IAM richiesti per l'accesso di questo account di servizio alle risorse.

Configurazione del servizio endpoint

ESP ed ESPv2 chiamano Service Control, che utilizza la configurazione del servizio endpoint. La configurazione del servizio endpoint è una risorsa IAM ed ESP ed ESPv2 richiedono il ruolo Responsabile controllo servizi per accedervi.

Il ruolo IAM si trova nella configurazione del servizio endpoint, non nel progetto. Un progetto può avere più configurazioni di servizi endpoint.

Utilizza il seguente comando gcloud per aggiungere il ruolo all'account di servizio associato per la configurazione del servizio endpoint.

gcloud endpoints services add-iam-policy-binding SERVICE_NAME \
  --member serviceAccount:SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com \
  --role roles/servicemanagement.serviceController

Dove
* SERVICE_NAME è il nome del servizio endpoint
* SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com è l'account di servizio associato.

Cloud Trace

ESP ed ESPv2 chiamano il servizio Cloud Trace per esportare la traccia in un progetto. Questo progetto è chiamato progetto di monitoraggio. In ESP, il progetto di monitoraggio e il progetto proprietario della configurazione del servizio endpoint sono gli stessi. In ESPv2, il progetto di monitoraggio può essere specificato tramite il flag --tracing_project_id e per impostazione predefinita corrisponde al progetto di implementazione.

ESP ed ESPv2 richiedono il ruolo Agente Cloud Trace per abilitare Cloud Trace.

Utilizza il seguente comando gcloud per aggiungere il ruolo all'account di servizio collegato:

gcloud projects add-iam-policy-binding TRACING_PROJECT_ID \
  --member serviceAccount:SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com \
  --role roles/cloudtrace.agent

Dove
* TRACING_PROJECT_ID è l'ID progetto di monitoraggio
* SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com è l'account di servizio associato. Per ulteriori informazioni, consulta Che cosa sono i ruoli e le autorizzazioni?

Esegui il deployment dell'API e di ESP di esempio nel cluster

Per eseguire il deployment del servizio gRPC di esempio nel cluster in modo che i client possano utilizzarlo:

  1. Salva e apri per la modifica una copia del file manifest di deployment grpc-bookstore.yaml.
  2. Sostituisci SERVICE_NAME con il nome del servizio Endpoints. Si tratta dello stesso nome configurato nel campo name nel file api_config.yaml.
    spec:
      containers:
      - name: esp
        image: gcr.io/endpoints-release/endpoints-runtime:1
        args: [
          "--http2_port=9000",
          "--service=SERVICE_NAME",
          "--rollout_strategy=managed",
          "--backend=grpc://127.0.0.1:8000"
        ]
        ports:
          - containerPort: 9000
      - name: bookstore
        image: gcr.io/endpointsv2/python-grpc-bookstore-server:1
        ports:
          - containerPort: 8000

    L'opzione --rollout_strategy=managed configura ESP in modo che utilizzi la configurazione del servizio di cui è stato eseguito il deployment più recente. Quando specifichi questa opzione, fino a 5 minuti dopo aver eseguito il deployment di una nuova configurazione del servizio, ESP rileva la modifica e inizia a utilizzarla automaticamente. Ti consigliamo di specificare questa opzione anziché un ID configurazione specifico da utilizzare per ESP. Per maggiori dettagli sugli argomenti ESP, consulta Opzioni di avvio di ESP.

    Ad esempio:

        spec:
          containers:
          - name: esp
            image: gcr.io/endpoints-release/endpoints-runtime:1
            args: [
              "--http2_port=9000",
              "--service=bookstore.endpoints.example-project-12345.cloud.goog",
              "--rollout_strategy=managed",
              "--backend=grpc://127.0.0.1:8000"
            ]
  3. Avvia il servizio:
    kubectl create -f grpc-bookstore.yaml
    

Se viene visualizzato un messaggio di errore, consulta Risoluzione dei problemi relativi agli endpoint in GKE.

Ottenere l'indirizzo IP esterno del servizio

Per inviare richieste all'API di esempio, devi avere l'indirizzo IP esterno del servizio. Potrebbero essere necessari alcuni minuti dopo l'avvio del servizio nel contenitore prima che l'indirizzo IP esterno sia pronto.

  1. Visualizza l'indirizzo IP esterno:

    kubectl get service
  2. Prendi nota del valore di EXTERNAL-IP e salvalo in una variabile di ambiente SERVER_IP. L'indirizzo IP esterno viene utilizzato per inviare richieste all'API di esempio.

    export SERVER_IP=YOUR_EXTERNAL_IP
    

Invio di una richiesta all'API

Per inviare richieste all'API di esempio, puoi utilizzare un client gRPC di esempio scritto in come Python.

  1. Clona il repository git in cui è ospitato il codice client gRPC:

    git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git
       

  2. Cambia la directory di lavoro:

    cd python-docs-samples/endpoints/bookstore-grpc/
      

  3. Installa le dipendenze:

    pip install virtualenv
    virtualenv env
    source env/bin/activate
    python -m pip install -r requirements.txt

  4. Invia una richiesta all'API di esempio:

    python bookstore_client.py --host SERVER_IP --port 80
    

Se non ricevi una risposta positiva, consulta la sezione Risoluzione dei problemi relativi alle risposte.

Hai eseguito il deployment e il test di un'API in Endpoints.

Esegui la pulizia

Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.

  1. Elimina l'API:

    gcloud endpoints services delete SERVICE_NAME
    

    Sostituisci SERVICE_NAME con il nome della tua API.

  2. Elimina il cluster GKE:

    gcloud container clusters delete NAME --zone ZONE
    

Passaggi successivi