Ce tutoriel explique comment déployer un exemple de service gRPC simple avec Extensible Service Proxy (ESP) sur Google Kubernetes Engine (GKE). Ce tutoriel
utilise la version Python
bookstore-grpc
échantillon. Consultez la section Étapes suivantes pour obtenir des exemples gRPC dans d'autres langages.
Ce tutoriel utilise des images de conteneur prédéfinies du code d'exemple et ou ESP, qui sont stockés Artifact Registry : Si vous n'êtes pas encore familiarisé avec les conteneurs, consultez les sections suivantes pour plus d'informations :
Pour obtenir une présentation de Cloud Endpoints, consultez les pages À propos de Cloud Endpoints et Présentation de l'architecture Cloud Endpoints.
Objectifs
Tout au long du tutoriel, reportez-vous au récapitulatif des étapes présenté ci-dessous. Toutes les tâches sont nécessaires pour envoyer des requêtes à l'API.
- Configurez un projet Google Cloud et téléchargez le logiciel requis. Consultez la section Avant de commencer.
- Copiez et configurez les fichiers à partir du
bookstore-grpc
échantillon. Consultez la section Configurer Endpoints. - Déployez la configuration Endpoints pour créer un service Endpoints. Consultez la section Déployer la configuration Endpoints.
- Créez un backend pour diffuser et déployer l'API. Consultez la section Déployer le backend de l'API.
- Obtenez l'adresse IP externe du service. Consultez la section Obtenir l'adresse IP externe du service.
- Envoyez une requête à l'API. Consultez la section Envoyer une requête à l'API.
- Faites le nécessaire pour éviter que des frais ne soient facturés sur votre compte Google Cloud. Consultez la section Effectuer un nettoyage.
Coûts
Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :
Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût.
Une fois que vous avez terminé les tâches décrites dans ce document, vous pouvez éviter de continuer à payer des frais en supprimant les ressources que vous avez créées. Pour en savoir plus, consultez la section Effectuer un nettoyage.
Avant de commencer
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Notez l'ID du projet Google Cloud, car vous en aurez besoin ultérieurement.
- Installez et initialisez Google Cloud CLI.
- Mettre à jour la gcloud CLI et installer les points de terminaison
composants.
gcloud components update
- Assurez-vous que la Google Cloud CLI (
gcloud
) est autorisée à accéder vos données et services sur Google Cloud: Un nouvel onglet de navigateur s'ouvre et vous êtes invité à choisir un compte.gcloud auth login
- Définissez le projet par défaut sur votre ID de projet.
gcloud config set project YOUR_PROJECT_ID
Remplacez YOUR_PROJECT_ID par l'ID du projet.
Si vous avez d'autres projets Google Cloud et que vous voulez les gérer à l'aide de
gcloud
, consultez la page Gérer les configurations de gcloud CLI. - Installez
kubectl
:gcloud components install kubectl
- Obtenez de nouveaux identifiants utilisateur à utiliser comme identifiants par défaut de l'application. Les identifiants utilisateur sont nécessaires pour autoriser
kubectl
. Dans le nouvel onglet de navigateur qui s'ouvre, choisissez un compte.gcloud auth application-default login
- Suivez les étapes figurant sur la page gRPC Python Quickstart pour installer gRPC et les outils gRPC.
Configurer Endpoints
L'exemple bookstore-grpc
contient les fichiers que vous devez copier localement puis configurer.
- Créez un fichier descripteur protobuf autonome à partir de votre fichier de service
.proto
:- Enregistrez une copie du fichier
bookstore.proto
à partir de l'exemple de dépôt. Ce fichier définit l'API du service Bookstore. - Créez le répertoire suivant :
mkdir generated_pb2
. - Créez le fichier descripteur
api_descriptor.pb
à l'aide du compilateur de tampons de protocoleprotoc
. Exécutez la commande suivante dans le répertoire où vous avez enregistrébookstore.proto
:python -m grpc_tools.protoc \ --include_imports \ --include_source_info \ --proto_path=. \ --descriptor_set_out=api_descriptor.pb \ --python_out=generated_pb2 \ --grpc_python_out=generated_pb2 \ bookstore.proto
Dans la commande ci-dessus,
--proto_path
est défini sur le répertoire de travail actuel. Dans votre environnement de compilation gRPC, si vous utilisez un autre répertoire pour les fichiers d'entrée.proto
, modifiez--proto_path
pour que le compilateur recherche le répertoire dans lequel vous avez enregistré votre fichierbookstore.proto
.
- Enregistrez une copie du fichier
- Créez un fichier YAML de configuration d'API gRPC :
- Enregistrez une copie du fichier
api_config.yaml
. Ce fichier définit la configuration d'API gRPC pour le service Bookstore. - Remplacez MY_PROJECT_ID dans votre fichier
api_config.yaml
par votre ID de projet Google Cloud. Exemple :# # Name of the service configuration. # name: bookstore.endpoints.example-project-12345.cloud.goog
Notez que la valeur du champ
apis.name
dans ce fichier correspond exactement au nom d'API complet du fichier.proto
. À défaut, le déploiement échouera. Le service Bookstore est défini dansbookstore.proto
dans le packageendpoints.examples.bookstore
. Son nom d'API complet estendpoints.examples.bookstore.Bookstore
, tel qu'il apparaît dans le fichierapi_config.yaml
apis: - name: endpoints.examples.bookstore.Bookstore
- Enregistrez une copie du fichier
Pour en savoir plus, consultez la page Configurer Endpoints.
Déployer la configuration Endpoints
Pour déployer la configuration Endpoints, exécutez la commande gcloud endpoints services deploy
. Cette commande crée un service géré à l'aide de Service Management.
- Vérifiez que vous êtes bien dans le répertoire contenant les fichiers
api_descriptor.pb
etapi_config.yaml
. - Vérifiez que le projet par défaut actuellement utilisé par l'outil de ligne de commande
gcloud
est bien le projet Google Cloud vers lequel vous souhaitez déployer la configuration Endpoints. Validez l'ID de projet renvoyé par la commande suivante, afin de vous assurer que le service est créé dans le bon projet.gcloud config list project
Si vous devez modifier le projet par défaut, exécutez la commande suivante :
gcloud config set project YOUR_PROJECT_ID
- Déployer le fichier
proto descriptor
et le fichier de configuration à l'aide de la commande Google Cloud CLI:gcloud endpoints services deploy api_descriptor.pb api_config.yaml
Lors de la création et de la configuration du service, Service Management envoie des informations au terminal. Une fois le déploiement terminé, un message semblable au suivant s'affiche :
Service Configuration [CONFIG_ID] uploaded for service [bookstore.endpoints.example-project.cloud.goog]
CONFIG_ID correspond à l'ID unique de configuration du service Endpoints créé par le déploiement. Exemple :
Service Configuration [2017-02-13r0] uploaded for service [bookstore.endpoints.example-project.cloud.goog]
Dans l'exemple précédent,
2017-02-13r0
correspond à l'ID de configuration du service etbookstore.endpoints.example-project.cloud.goog
au nom du service. L'ID de configuration du service se compose d'un horodatage suivi d'un numéro de révision. Si vous déployez à nouveau la configuration Endpoints le même jour, le numéro de révision est incrémenté dans l'ID de configuration du service.
Vérifier les services requis
Endpoints et ESP requièrent au minimum l'activation des services Google suivants :Nom | Titre |
---|---|
servicemanagement.googleapis.com |
API Service Management |
servicecontrol.googleapis.com |
API Service Control |
endpoints.googleapis.com |
Google Cloud Endpoints |
Dans la plupart des cas, la commande gcloud endpoints services deploy
permet d'activer ces services requis. Toutefois, bien que la commande gcloud
ait abouti, elle n'active pas les services requis dans les cas suivants :
Vous avez utilisé une application tierce telle que Terraform et vous n'incluez pas ces services.
Vous avez déployé la configuration Endpoints dans un projet Google Cloud existant dans lequel ces services étaient explicitement désactivés.
Utilisez la commande suivante pour vérifier que les services nécessaires sont activés :
gcloud services list
Si les services requis ne sont pas répertoriés, activez-les :
gcloud services enable servicemanagement.googleapis.comgcloud services enable servicecontrol.googleapis.com
gcloud services enable endpoints.googleapis.com
Activez également votre service Endpoints :
gcloud services enable ENDPOINTS_SERVICE_NAME
Pour déterminer la valeur de ENDPOINTS_SERVICE_NAME, vous pouvez effectuer l'une des opérations suivantes :
Après avoir déployé la configuration Endpoints, accédez à la page Endpoints de Cloud Console. La liste des valeurs ENDPOINTS_SERVICE_NAME possibles s'affiche dans la colonne Nom du service.
Pour OpenAPI, ENDPOINTS_SERVICE_NAME correspond à ce que vous avez spécifié dans le champ
host
de votre spécification OpenAPI. Pour gRPC, ENDPOINTS_SERVICE_NAME correspond à ce que vous avez spécifié dans le champname
de votre configuration Endpoints gRPC.
Pour en savoir plus sur les commandes gcloud
, consultez la page Services gcloud
.
Si vous recevez un message d'erreur, consultez la page Dépannage du déploiement de la configuration Cloud Endpoints.
Pour en savoir plus, consultez la page Déployer la configuration Endpoints.
Déployer le backend de l'API
Vous avez déployé la configuration de service dans Service Management, mais vous n'avez pas encore déployé le code qui diffuse le backend de l'API. Cette section vous guide dans la création d'un cluster GKE pour héberger le backend de l'API et dans le déploiement de l'API.
Créer un cluster de conteneur
Pour créer un cluster de conteneurs pour notre exemple :
- Dans la console Google Cloud, accédez à la page des clusters Kubernetes.
- Cliquez sur Créer un cluster.
- Acceptez les paramètres par défaut et cliquez sur Créer. Notez le nom du cluster et la zone, car ils sont nécessaires ultérieurement dans ce tutoriel.
Authentifier kubectl
sur le cluster de conteneurs
Pour utiliser kubectl
afin de créer et gérer des ressources de cluster, vous devez obtenir les identifiants du cluster et les mettre à la disposition de kubectl
. Pour ce faire, exécutez la commande suivante, en remplaçant NAME par votre nouveau nom de cluster et ZONE par sa zone de cluster.
gcloud container clusters get-credentials NAME --zone ZONE
Vérifier les autorisations requises
ESP et ESPv2 appellent les services Google qui utilisent IAM pour vérifier si l'identité appelante dispose des autorisations suffisantes pour accéder aux ressources IAM utilisées. L'identité appelante est le compte de service associé qui déploie ESP et ESPv2.
Lorsqu'il est déployé dans un pod GKE, le compte de service associé est le compte de service de nœud. Il s'agit généralement du compte de service Compute Engine par défaut. Veuillez suivre cette recommandation d'autorisation pour choisir un compte de service de nœud approprié.
Si Workload Identity est utilisé, il est possible d'utiliser un compte de service distinct autre que le compte de service de nœud pour communiquer avec les services Google. Vous pouvez créer un compte de service Kubernetes pour que le pod exécute ESP et ESPv2, créer un compte de service Google et associer le compte de service Kubernetes au compte de service Google.
Pour associer un compte de service Kubernetes à un compte de service Google, suivez ces étapes. Ce compte de service Google est le compte de service associé.
Si le compte de service associé est le compte de service Compute Engine par défaut du projet et que la configuration du service de point de terminaison est déployée dans le même projet, le compte de service doit disposer des autorisations suffisantes pour accéder aux ressources IAM. L'étape de configuration des rôles IAM peut être ignorée. Sinon, les rôles IAM suivants doivent être ajoutés au compte de service associé.
Ajoutez les rôles IAM requis :
Cette section décrit les ressources IAM utilisées par ESP et ESPv2, ainsi que les rôles IAM requis pour que le compte de service associé puisse accéder à ces ressources.
Configuration du service de point de terminaison
ESP et ESPv2 appellent Service Control, qui utilise la configuration du service de point de terminaison. Celle-ci est une ressource IAM. ESP et ESPv2 ont besoin du rôle Contrôleur du service pour y accéder.
Le rôle IAM s'applique à la configuration du service de point de terminaison, et non au projet. Un projet peut posséder plusieurs configurations de service de point de terminaison.
Utilisez la commande gcloud suivante pour ajouter le rôle au compte de service associé pour la configuration du service de point de terminaison.
gcloud endpoints services add-iam-policy-binding SERVICE_NAME \ --member serviceAccount:SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com \ --role roles/servicemanagement.serviceController
Où
* SERVICE_NAME
est le nom du service de point de terminaison ;
* SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com
est le compte de service associé.
Cloud Trace
ESP et ESPv2 appellent le service Cloud Trace pour exporter Trace vers un projet. Ce projet est appelé projet de traçage. Dans ESP, le projet de traçage et le projet propriétaire de la configuration du service de point de terminaison sont identiques. Dans ESPv2, le projet de traçage peut être spécifié par l'option --tracing_project_id
, et est défini par défaut sur le projet de déploiement.
ESP et ESPv2 nécessitent le rôle Agent Cloud Trace pour activer Cloud Trace.
Exécutez la commande gcloud suivante pour ajouter le rôle au compte de service associé :
gcloud projects add-iam-policy-binding TRACING_PROJECT_ID \ --member serviceAccount:SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID.iam.gserviceaccount.com \ --role roles/cloudtrace.agent
Où
* TRACING_PROJECT_ID est l'ID du projet de traçage.
* SERVICE_ACCOUNT_NAME@DEPLOY_PROJECT_ID,iam.gserviceaccount.com
est le compte de service associé.
Pour en savoir plus, consultez la page Que sont les rôles et les autorisations ?
Déployer les exemples d'API et d'ESP sur le cluster
Pour déployer l'exemple de service gRPC sur le cluster afin que les clients puissent l'utiliser :
- Enregistrez et ouvrez pour éditer une copie du fichier manifeste de déploiement grpc-bookstore.yaml.
- Remplacez SERVICE_NAME par le nom de votre service Endpoints.
Il s'agit du nom que vous avez configuré dans le champ
name
du fichierapi_config.yaml
.L'option
--rollout_strategy=managed
configure ESP pour qu'il utilise la dernière configuration de service déployée. Si cette option est spécifiée, jusqu'à 5 minutes après le déploiement d'une nouvelle configuration de service, ESP détecte la modification et commence à l'utiliser automatiquement. Nous vous recommandons de spécifier cette option plutôt qu'un ID de configuration spécifique à utiliser par ESP. Pour en savoir plus sur les arguments ESP, consultez la page Options de démarrage ESP.Exemple :
spec: containers: - name: esp image: gcr.io/endpoints-release/endpoints-runtime:1 args: [ "--http2_port=9000", "--service=bookstore.endpoints.example-project-12345.cloud.goog", "--rollout_strategy=managed", "--backend=grpc://127.0.0.1:8000" ]
- Démarrez le service :
kubectl create -f grpc-bookstore.yaml
Si vous recevez un message d'erreur, reportez-vous à la page Dépannage de Cloud Endpoints dans GKE.
Obtenir l'adresse IP externe du service
L'adresse IP externe du service est nécessaire pour envoyer des demandes à l'exemple d'API. Une fois que vous avez démarré le service dans le conteneur, la préparation de l'adresse IP externe peut prendre quelques minutes.
Affichez l'adresse IP externe :
kubectl get service
Notez la valeur de
EXTERNAL-IP
et enregistrez-la dans une variable d'environnement SERVER_IP. L'adresse IP externe est utilisée pour envoyer des requêtes à l'exemple d'API.export SERVER_IP=YOUR_EXTERNAL_IP
Envoyer une requête à l'API
Pour envoyer des requêtes à l'exemple d'API, vous pouvez utiliser un exemple de client gRPC écrit en Python.
Clonez le dépôt Git dans lequel le code client gRPC est hébergé :
git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git
Modifiez votre répertoire de travail :
cd python-docs-samples/endpoints/bookstore-grpc/
Installez les dépendances :
pip install virtualenv
virtualenv env
source env/bin/activate
python -m pip install -r requirements.txt
Envoyez une requête à l'exemple d'API :
python bookstore_client.py --host SERVER_IP --port 80
Examinez les graphiques d'activité de l'API dans la page Endpoints > Services.
Accédez à la page Services Endpoints
Il peut s'écouler quelques instants avant que la requête ne soit reflétée dans les graphiques.
Consultez les journaux de requêtes de votre API sur la page de l'explorateur de journaux.
Si vous ne recevez pas de réponse positive, consultez la page Dépanner des erreurs de réponse.
Vous venez de déployer et de tester une API dans Endpoints.
Effectuer un nettoyage
Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.
Supprimez l'API :
gcloud endpoints services delete SERVICE_NAME
Remplacez SERVICE_NAME par le nom de votre API.
Supprimez le cluster GKE :
gcloud container clusters delete NAME --zone ZONE
Étapes suivantes
- Découvrez comment configurer votre propre API gRPC pour Cloud Endpoints.
- Consultez l'exemple Bookstore sur GitHub plus en détail. Le client et le serveur sont disponibles dans les langages Python et Java.
- L'exemple
getting-started-grpc
est disponible sur GitHub dans les langages suivants :