Eseguire ESP in locale o su un'altra piattaforma

Questa pagina spiega come configurare ed eseguire un'istanza di Extensible Service Proxy (ESP) su una macchina locale, su un altro cloud provider, come Amazon Web Services (AWS) o su un cluster Kubernetes che non è su Google Cloud.

Puoi eseguire ESP su un computer Linux o macOS o una macchina virtuale (VM). Microsoft Windows non è supportato. Puoi eseguire il deployment della tua applicazione ed ESP sullo stesso host o su host diversi. Ospitare un'istanza locale di ESP ti consente di:

  • Prova ESP prima di eseguirne il deployment su una piattaforma di produzione.
  • Verifica che le impostazioni di sicurezza siano configurate e funzionino correttamente e che le metriche e i log vengano visualizzati nella pagina Endpoint > Servizi come previsto.

Prerequisiti

Per prima cosa, in questa pagina si presuppone che:

Se hai bisogno di un'API per i test con ESP, puoi configurare ed eseguire il deployment del codice campione nella sezione Facoltativo: utilizzo di un'API di esempio. Se hai già configurato ed eseguito il deployment dell'API, vai alla sezione Creazione di un account di servizio.

(Facoltativo) Utilizzo di un'API di esempio

Questa sezione illustra la configurazione e il deployment della versione Python dell'esempio di getting-started per Endpoints in locale. Esegui i passaggi in questa sezione solo se non disponi di un'API per i test con ESP.

L'esempio di Cloud Endpoints getting-started è disponibile in altre lingue. Consulta la pagina Samples per la posizione GitHub dell'esempio getting-started nella tua lingua preferita. Segui le istruzioni nel file README.md dell'esempio per l'esecuzione in locale, poi segui le istruzioni in questa sezione per configurare Endpoints ed eseguire il deployment della configurazione di Endpoints.

Scarica il software richiesto

Se non hai ancora configurato un ambiente di sviluppo Python, consulta Configurazione di un ambiente di sviluppo Python per indicazioni. Assicurati di avere installato quanto segue:

recupera il codice campione

  1. Clona il repository dell'app di esempio sulla tua macchina locale:

    git clone https://github.com/GoogleCloudPlatform/python-docs-samples
    
  2. Passa alla directory che contiene il codice di esempio:

    cd python-docs-samples/endpoints/getting-started
    

Configura endpoint

  1. Nella directory codice campione, apri il file di configurazione openapi.yaml.

    swagger: "2.0"
    info:
      description: "A simple Google Cloud Endpoints API example."
      title: "Endpoints Example"
      version: "1.0.0"
    host: "echo-api.endpoints.YOUR-PROJECT-ID.cloud.goog"
  2. Nel campo host, sostituisci YOUR-PROJECT-ID con il tuo ID progetto Google Cloud.

  3. Salva il file openapi.yaml.

esegui il deployment della configurazione di Endpoints

Per eseguire il deployment della configurazione di Endpoints, utilizza il comando gcloud endpoints services deploy. Questo comando utilizza Service Management per creare un servizio gestito.

  1. Aggiorna l'interfaccia alla gcloud CLI:

    gcloud components update
  2. Assicurati che gcloud CLI (gcloud) sia autorizzato ad accedere a dati e servizi su Google Cloud:

    gcloud auth login

    Nella nuova scheda del browser che si apre, seleziona un account.

  3. Imposta il progetto predefinito sul tuo ID progetto:

    gcloud config set project YOUR-PROJECT-ID
    

    Sostituisci YOUR-PROJECT-ID con l'ID del progetto Google Cloud specificato nel file openapi.yaml.

  4. Esegui il deployment della configurazione:

    gcloud endpoints services deploy openapi.yaml

Service Management utilizza il testo specificato nel campo host nel file openapi.yaml per creare un nuovo servizio Endpoints con il nome echo-api.endpoints.YOUR-PROJECT-ID.cloud.goog (se non esiste), quindi configura il servizio in base al file di configurazione OpenAPI.

Durante la creazione e la configurazione del servizio, Service Management invia le informazioni al terminale. Puoi ignorare tranquillamente gli avvisi relativi ai percorsi nel file openapi.yaml che non richiedono una chiave API. Al completamento, una riga simile alla seguente mostra l'ID configurazione del servizio e il nome del servizio tra parentesi quadre:

Service Configuration [2017-02-13r0] uploaded for service [echo-api.endpoints.example-project-12345.cloud.goog]

Nell'esempio precedente, 2017-02-13r0 è l'ID configurazione del servizio e echo-api.endpoints.example-project-12345.cloud.goog è il nome del servizio.

Avvio del server locale

  1. Crea un virtualenv, attivalo e installa le dipendenze dell'applicazione.

    virtualenv env
    source env/bin/activate
    pip install -r requirements.txt
    
  2. Avvia il server:

    python main.py
    
  3. Apri un'altra finestra del terminale e utilizza curl per inviare una richiesta:

    curl --request POST \
      --header "content-type:application/json" \
      --data '{"message":"hello world"}' \
      http://localhost:8080/echo
    

    L'API restituisce un'eco al messaggio che lo invii e risponde con quanto segue:

    {
    "message": "hello world"
    }
    

Creazione di un account di servizio

Per fornire la gestione della tua API, sia ESP che ESPv2 richiedono i servizi in Service Infrastructure. Per chiamare questi servizi, ESP ed ESPv2 devono utilizzare i token di accesso. Quando esegui il deployment di ESP o ESPv2 in ambienti Google Cloud, come GKE, Compute Engine o l'ambiente flessibile di App Engine, ESP ed ESPv2 ricevono i token di accesso per te tramite il servizio di metadati Google Cloud.

Quando esegui il deployment di ESP o ESPv2 in un ambiente non Google Cloud, come il tuo desktop locale, un cluster Kubernetes on-premise o un altro cloud provider, devi fornire un file JSON dell'account di servizio contenente una chiave privata. ESP ed ESPv2 utilizzano l'account di servizio per generare token di accesso per chiamare i servizi necessari per gestire l'API.

Puoi utilizzare la console Google Cloud o Google Cloud CLI per creare l'account di servizio e il file di chiave privata:

Console

  1. Nella console Google Cloud, apri la pagina Account di servizio .

    Vai alla pagina Account di servizio

  2. Fai clic su Seleziona un progetto.
  3. Seleziona il progetto in cui è stata creata l'API e fai clic su Apri.
  4. Fai clic su + Crea account di servizio.
  5. Nel campo Nome account di servizio, inserisci il nome dell'account di servizio.
  6. Fai clic su Crea.
  7. Fai clic su Continua.
  8. Fai clic su Fine.
  9. Fai clic sull'indirizzo email dell'account di servizio appena creato.
  10. Fai clic su Chiavi.
  11. Fai clic su Aggiungi chiave, quindi su Crea nuova chiave.
  12. Fai clic su Crea. Un file di chiave JSON viene scaricato sul computer.

    Assicurati di archiviare il file della chiave in modo sicuro, poiché può essere utilizzato per l'autenticazione come account di servizio. Puoi spostare e rinominare questo file come preferisci.

  13. Fai clic su Chiudi.

gcloud

  1. Inserisci quanto segue per visualizzare gli ID dei tuoi progetti Google Cloud:

    gcloud projects list
  2. Sostituisci PROJECT_ID nel comando seguente per impostare il progetto predefinito su quello in cui si trova la tua API:

    gcloud config set project PROJECT_ID
  3. Assicurati che Google Cloud CLI (gcloud) sia autorizzato ad accedere ai tuoi dati e servizi su Google Cloud:

    gcloud auth login

    Se disponi di più account, assicurati di scegliere quello presente nel progetto Google Cloud in cui si trova l'API. Se esegui gcloud auth list, l'account selezionato viene mostrato come account attivo per il progetto.

  4. Per creare un account di servizio, esegui questo comando e sostituisci SERVICE_ACCOUNT_NAME e My Service Account con il nome e il nome visualizzato che vuoi utilizzare:

    gcloud iam service-accounts create SERVICE_ACCOUNT_NAME \
       --display-name "My Service Account"

    Il comando assegna un indirizzo email all'account di servizio nel seguente formato:

    SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com

    Questo indirizzo email è obbligatorio nei comandi successivi.

  5. Crea un file della chiave dell'account di servizio:

    gcloud iam service-accounts keys create ~/service-account-creds.json \
       --iam-account SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com

Aggiungi i ruoli IAM richiesti:

Questa sezione descrive le risorse IAM utilizzate da ESP ed ESPv2 e i ruoli IAM richiesti all'account di servizio collegato per accedere a queste risorse.

Configurazione servizio endpoint

ESP ed ESPv2 chiamano Service Control, che utilizza la configurazione del servizio endpoint. La configurazione del servizio endpoint è una risorsa IAM ed ESP ed ESPv2 devono avere il ruolo Controller di servizio per accedervi.

Il ruolo IAM si trova sulla configurazione del servizio endpoint, non sul progetto. Un progetto può avere più configurazioni di servizi endpoint.

Utilizza il seguente comando gcloud per aggiungere il ruolo all'account di servizio collegato per la configurazione del servizio endpoint.

gcloud endpoints services add-iam-policy-binding SERVICE_NAME \
  --member serviceAccount:SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com \
  --role roles/servicemanagement.serviceController

Dove
* SERVICE_NAME è il nome del servizio endpoint
* SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com è l'account di servizio collegato.

Cloud Trace

ESP ed ESPv2 chiamano il servizio Cloud Trace per esportare Trace in un progetto. Questo progetto è chiamato progetto di tracciamento. In ESP, il progetto di tracciamento e il progetto proprietario della configurazione del servizio endpoint sono gli stessi. In ESPv2, il progetto di tracciamento può essere specificato con il flag --tracing_project_id e il progetto predefinito è il progetto di deployment.

ESP ed ESPv2 richiedono il ruolo Agente Cloud Trace per abilitare Cloud Trace.

Utilizza il seguente comando gcloud per aggiungere il ruolo all'account di servizio collegato:

gcloud projects add-iam-policy-binding TRACING_PROJECT_ID \
  --member serviceAccount:SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com \
  --role roles/cloudtrace.agent

Dove
* TRACING_PROJECT_ID è l'ID progetto di tracciamento
* SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com è l'account di servizio collegato. Per maggiori informazioni, vedi Cosa sono i ruoli e le autorizzazioni?

Vedi gcloud iam service-accounts per ulteriori informazioni sui comandi.

Esecuzione di ESP in un container

Questa sezione descrive come eseguire il deployment del container ESP. La procedura da utilizzare dipende da dove esegui il deployment del container ESP:

Esecuzione di ESP in un container Docker in locale o su un'altra piattaforma.

  1. Rinomina il file JSON che contiene la chiave privata per l'account di servizio in service-account-creds.json e copialo in $HOME/Downloads/ se è stato scaricato in un'altra directory. In questo modo, il nome completo del percorso corrisponde al valore di --service_account_key nel seguente comando docker run.

  2. Nel seguente comando docker run, sostituisci YOUR_SERVICE_NAME con il nome del tuo servizio.

Linux

sudo docker run \
  --detach \
  --name="esp" \
  --net="host" \
  --volume=$HOME/Downloads:/esp \
  --publish=8082 \
  gcr.io/endpoints-release/endpoints-runtime:1 \
  --service=YOUR_SERVICE_NAME \
  --rollout_strategy=managed \
  --http_port=8082 \
  --backend=localhost:8080 \
  --service_account_key=/esp/service-account-creds.json

Mac OS

L'opzione Docker --net="host" non funziona su macOS. Devi invece eseguire una mappatura esplicita delle porte dall'host al container sostituendo --net="host" con --publish 8082:8082. Devi anche sostituire localhost con il nome DNS speciale solo per macOS docker.for.mac.localhost. Per ulteriori informazioni, consulta Casi d'uso e soluzioni alternative nella documentazione di Docker.

sudo docker run \
  --detach \
  --name="esp" \
  --publish=8082:8082 \
  --volume=$HOME/Downloads:/esp \
  gcr.io/endpoints-release/endpoints-runtime:1 \
  --service=YOUR_SERVICE_NAME \
  --rollout_strategy=managed \
  --http_port=8082 \
  --backend=docker.for.mac.localhost:8080 \
  --service_account_key=/esp/service-account-creds.json
  

Un'altra piattaforma

sudo docker run \
  --detach \
  --name="esp" \
  --net="host" \
  --volume=$HOME/Downloads:/esp \
  --publish=8082 \
  gcr.io/endpoints-release/endpoints-runtime:1 \
  --service=YOUR_SERVICE_NAME \
  --rollout_strategy=managed \
  --http_port=8082 \
  --backend=IP_Address:PORT \
  --service_account_key=/esp/service-account-creds.json
  

La tabella seguente descrive le opzioni Docker utilizzate nei comandi precedenti. Per informazioni sulle opzioni ESP utilizzate nell'esempio, consulta Opzioni di avvio di ESP.

Opzione Description
--detach Questa opzione Docker avvia il container in modalità scollegato, quindi viene eseguito in background.
--name="esp" Questa opzione Docker fornisce un nome di facile accesso per il container. Ad esempio, per visualizzare i log del container, potresti eseguire docker logs esp
--net="host" Questa opzione Docker indica che il container Docker utilizza la stessa configurazione di rete della macchina host, consentendo di effettuare chiamate a localhost sulla macchina host. Questa opzione non funziona per eseguire ESP in locale su macOS.
--publish=8082:8082 Per macOS, se vuoi eseguire ESP in locale, usa questa opzione Docker anziché --net="host" per eseguire una mappatura esplicita delle porte dall'host al container.
--volume=
$HOME/Downloads:/esp
Questa opzione Docker mappa la tua directory $HOME/Downloads locale alla /esp directory nel container. Questa mappatura è utilizzata dall'opzione ESP --service_account_key.

Esegui ESP in un container su un cluster Kubernetes

Questa sezione descrive come eseguire il deployment di ESP in un cluster Kubernetes che non è su Google Cloud.

Per fare in modo che la tua API venga gestita da Endpoints, esegui il deployment del container ESP sullo stesso pod Kubernetes del container API. L'insieme di pod che eseguono ESP e la tua API vengono raggruppati in un servizio Kubernetes utilizzando un selettore di etichette, ad esempio app: my-api. Il servizio Kubernetes specifica il criterio di accesso per bilanciare il carico delle richieste del client alla porta proxy.

  1. Rinomina il file JSON che contiene la chiave privata per l'account di servizio in service-account-creds.json e copialo in $HOME/Downloads/ se è stato scaricato in un'altra directory. In questo modo, il nome completo del percorso corrisponde al comando nel passaggio successivo.

  2. Esegui questo comando per creare un secret di Kubernetes e montarlo come volume Kubernetes.

    kubectl create secret generic service-account-creds \
      --from-file=$HOME/Downloads/service-account-creds.json
    

    Se l'operazione riesce, viene visualizzato il seguente messaggio: secret "service-account-creds" created

  3. Nel file di configurazione di Kubernetes, aggiungi quanto segue, sostituendo YOUR_APP_NAME con il nome della tua API e YOUR_SERVICE_NAME con il nome del tuo servizio.

    spec:
    replicas: 1
    template:
      metadata:
        labels:
          app: "YOUR_APP_NAME"
      spec:
        volumes:
          - name: service-account-creds
            secret:
              secretName: service-account-creds
              containers:
          - name: esp
            image: gcr.io/endpoints-release/endpoints-runtime:1
            args: [
              "--http_port=8082",
              "--backend=127.0.0.1:8081",
              "--service=YOUR_SERVICE_NAME",
              "--rollout_strategy=managed",
              "--service_account_key=/etc/nginx/creds/service-account-creds.json"
            ]
            ports:
              - containerPort: 8080
            volumeMounts:
              - mountPath: /etc/nginx/creds
                name: service-account-creds
                readOnly: true
    

    Per informazioni sulle opzioni ESP utilizzate nell'esempio, consulta Opzioni di avvio di ESP.

  4. Eseguire il deployment di ESP su Kubernetes. Sostituisci YOUR_CONFIGURATION_FILE con il nome del tuo file di configurazione Kubernetes.

    kubectl apply -f YOUR_CONFIGURATION_FILE

Invio richieste

Per confermare che il file dell'account di servizio sia corretto e che le porte siano mappate correttamente, invia alcune richieste all'API e assicurati che passino attraverso ESP. Puoi visualizzare i log ESP eseguendo:

sudo docker logs esp

I seguenti esempi inviano richieste all'API di esempio. Se non utilizzi l'API di esempio, ti consigliamo di eseguire test simili.

Hai configurato il container ESP in modo da ricevere le richieste sulla porta 8082. Se invii una richiesta direttamente al server all'indirizzo http://localhost:8080, le richieste bypassano ESP. Ad esempio:

curl --request POST \
  --header "content-type:application/json" \
  --data '{"message":"hello world"}' \
  http://localhost:8080/echo

Risposta:

  {
    "message": "hello world"
  }

Quando invii una richiesta a http://localhost:8082 che passa attraverso l'ESP e non invii una chiave API, l'ESP rifiuta la richiesta. Ad esempio:

curl --request POST \
  --header "content-type:application/json" \
  --data '{"message":"hello world"}' \
  http://localhost:8082/echo

Risposta:

  {
   "code": 16,
   "message": "Method doesn't allow unregistered callers (callers without
    established identity). Please use API Key or other form of API consumer
    identity to call this API.",
   "details": [
    {
     "@type": "type.googleapis.com/google.rpc.DebugInfo",
     "stackEntries": [],
     "detail": "service_control"
    }
   ]
  }

Per testare l'API con una chiave API:

  1. Crea una chiave API nella pagina Credenziali API.

    Vai alla pagina Credenziali

  2. Fai clic su Crea credenziali, quindi seleziona Chiave API.

  3. Copia la chiave, quindi incollala nella seguente istruzione di variabile di ambiente:

    export KEY=AIza...
    
  4. Invia una richiesta con la chiave:

    curl --request POST \
      --header "content-type:application/json" \
      --data '{"message":"hello world"}' \
      http://localhost:8082/echo?key=$KEY

    Vedrai una risposta corretta:

    {
      "message": "hello world"
    }

esegui la pulizia

Arresta e rimuovi il container Docker esp usando lo strumento docker:

    sudo docker stop esp
    sudo docker rm esp
Se vuoi eseguire la pulizia della configurazione del servizio di cui è stato eseguito il deployment, consulta Eliminazione di un'API e delle istanze API.

Passaggi successivi