Présentation de Cloud Service Mesh

Cloud Service Mesh est un service mesh disponible sur Google Cloud et sur les plates-formes GKE Enterprise compatibles. Il prend en charge les services exécutés sur différentes infrastructures IT. Cloud Service Mesh est contrôlé par des API conçues pour Google Cloud, pour l'open source ou pour les deux.

Ce document s'adresse à vous si vous êtes un nouvel utilisateur de Cloud Service Mesh ou un client Anthos Service Mesh ou Traffic Director.

Qu'est-ce qu'un maillage de services ?

Un maillage de services est une architecture qui permet une communication gérée, observable et sécurisée entre vos services. Vous pouvez ainsi créer plus facilement des applications d'entreprise fiables dotées de nombreux microservices sur l'infrastructure de votre choix. Les maillages de services gèrent les exigences courantes liées à l'exécution d'un service, telles que la surveillance, la mise en réseau et la sécurité, à l'aide d'outils cohérents et puissants. Les développeurs et opérateurs de services peuvent ainsi se concentrer plus facilement sur la création et la gestion de leurs applications.

En termes d'architecture, un maillage de services se compose d'un ou de plusieurs plans de contrôle et d'un plan de données. Le maillage de services surveille tout le trafic entrant et sortant de vos services. Sur Kubernetes, un proxy est déployé par un modèle side-car sur les microservices du maillage. Sur Compute Engine, vous pouvez déployer des proxys sur des VM ou utiliser gRPC sans proxy pour le plan de données.

Ce modèle dissocie l'application ou la logique métier des fonctions réseau et permet aux développeurs de se concentrer sur les fonctionnalités dont l'entreprise a besoin. Les maillages de services permettent également aux équipes chargées des opérations et du développement de dissocier leur travail les unes des autres.

Concevoir une architecture basée sur des microservices pour vos applications présente de nombreux avantages. Cependant, vos charges de travail peuvent devenir plus complexes et fragmentées à mesure qu'elles évoluent. Le réseau maillé de services permet de résoudre le problème de fragmentation et de gérer plus facilement vos microservices.

Qu'est-ce que le service de maillage de services cloud ?

Cloud Service Mesh est la solution de Google pour Google Cloud et les environnements GKE Enterprise compatibles.

  • Sur Google Cloud: Cloud Service Mesh fournit des API spécifiques à l'infrastructure de calcul sur laquelle vos charges de travail s'exécutent.
  • En dehors de Google Cloud: avec Distributed Cloud ou le multicloud GKE, Cloud Service Mesh est compatible avec les API Istio pour les charges de travail Kubernetes.

Que vous utilisiez ou non Google Cloud, Cloud Service Mesh vous permet de gérer, d'observer et de sécuriser vos services sans avoir à modifier le code de votre application.

Cloud Service Mesh réduit la charge de travail de vos équipes en charge des opérations et du développement en simplifiant la diffusion des services, de la gestion du trafic et de la télémétrie du maillage à la sécurisation des communications entre les services. Le maillage de services entièrement géré de Google vous permet de gérer des environnements complexes et de profiter de leurs avantages.

Fonctionnalités

Cloud Service Mesh dispose d'une suite de fonctionnalités pour la gestion du trafic, l'observabilité et la télémétrie, ainsi que pour la sécurité.

Gestion du trafic

Cloud Service Mesh contrôle le flux de trafic entre les services du maillage, dans le maillage (entrée) et vers les services externes (sortie). Vous configurez et déployez des ressources pour gérer ce trafic au niveau de la couche application (L7). Par exemple, vous pouvez effectuer les opérations suivantes :

  • Utilisez la détection de services.
  • Configurez l'équilibrage de charge entre les services.
  • Créez des déploiements Canary et bleu-vert.
  • Contrôler précisément le routage de vos services
  • Configurez des disjoncteurs.

Cloud Service Mesh gère une liste de tous les services du maillage par nom et par leurs points de terminaison respectifs. Il gère cette liste pour gérer le flux de trafic (par exemple, les adresses IP des pods Kubernetes ou les adresses IP des VM Compute Engine dans un groupe d'instances géré). En utilisant ce registre de services et en exécutant les proxys et les services côte à côte, le maillage peut diriger le trafic vers le point de terminaison approprié. Les charges de travail gRPC sans proxy peuvent également être utilisées en parallèle avec les charges de travail utilisant des proxys Envoy.

Informations sur l'observabilité

L'interface utilisateur de Cloud Service Mesh dans la console Google Cloud fournit des insights sur votre maillage de services. Ces métriques sont générées automatiquement pour les charges de travail configurées via les API Istio.

  • Les métriques de service et les journaux du trafic HTTP au sein du cluster GKE de votre maillage sont automatiquement ingérés dans Google Cloud.
  • Les tableaux de bord de services préconfigurés vous fournissent les informations nécessaires pour comprendre vos services.
  • La télémétrie détaillée, fournie par Cloud Monitoring, Cloud Logging et Cloud Trace, vous permet d'explorer métriques de service et journaux. Vous pouvez filtrer et segmenter vos données à l'aide d'un grand nombre d'attributs variés.
  • Les relations de service à service vous permettent de comprendre rapidement les dépendances entre les services et les utilisateurs qui se connectent à chaque service.
  • Vous pouvez rapidement consulter la stratégie de sécurité de la communication concernant non seulement votre service, mais aussi ses relations avec d'autres services.
  • Les objectifs de niveau de service (SLO, Service Level Objective) vous donnent un aperçu de l'état de vos services. Vous pouvez définir un SLO et une alerte en fonction de vos propres normes d'état de service.

Découvrez les fonctionnalités d'observabilité de Cloud Service Mesh dans notre guide d'observabilité.

Avantages de sécurité

Cloud Service Mesh offre de nombreux avantages en termes de sécurité.

  • Atténue le risque de nouvelle lecture ou d'usurpation d'identité qui utilisent des identifiants volés. Cloud Service Mesh s'appuie sur des certificats TLS mutuels (mTLS) pour authentifier les pairs, plutôt que sur des jetons de support tels que les jetons Web JSON (JWT).
  • Assure le chiffrement en transit. L'utilisation de mTLS pour l'authentification garantit également que toutes les communications TCP sont chiffrées en transit.
  • Limite le risque que des clients non autorisés puissent accéder à un service contenant des données sensibles, indépendamment de l'emplacement réseau du client et des identifiants au niveau de l'application.
  • Atténue le risque de violation des données utilisateur sur votre réseau de production. Vous pouvez vous assurer que les initiés ne peuvent accéder aux données sensibles que via des clients autorisés.
  • Identifie les clients ayant accédé à un service avec des données sensibles. La journalisation des accès Cloud Service Mesh capture l'identité mTLS du client en plus de l'adresse IP.
  • Tous les composants du plan de contrôle dans le cluster sont créés avec des modules de chiffrement certifiés FIPS 140-2.

Découvrez les avantages et les fonctionnalités de sécurité de Service Mesh dans le guide de sécurité.

Options de déploiement

Dans Cloud Service Mesh, vous disposez des options de déploiement suivantes:

  • Sur Google Cloud
    • Cloud Service Mesh géré : plan de contrôle et de données géré pour GKE (recommandé)
    • Cloud Service Mesh géré : plan de contrôle et de données géré pour Compute Engine avec des VM (recommandé)
    • Plan de contrôle au sein du cluster pour GKE avec les API Istio (déconseillé)
  • Hors de Google Cloud
    • Plan de contrôle au sein du cluster pour Kubernetes avec les API Istio

Cloud Service Mesh géré

Cloud Service Mesh géré se compose du plan de contrôle géré pour toutes les infrastructures et du plan de données géré pour GKE. Avec Cloud Service Mesh géré, Google gère les mises à niveau, le scaling et la sécurité pour réduire au minimum la maintenance manuelle des utilisateurs. Cela couvre le plan de contrôle, le plan de données et les ressources associées.

Implémentation du plan de données

Si vous utilisez des API Google Cloud, votre plan de données peut être fourni par des proxys Envoy ou par des applications gRPC sans proxy. Si vous mettez à jour une application existante, l'approche basée sur le sidecar permet de l'intégrer au réseau maillé sans modifier votre application. Si vous souhaitez éviter les frais généraux liés à l'exécution d'un sidecar, vous pouvez mettre à jour votre application pour qu'elle utilise gRPC.

Les proxys Envoy et le gRPC sans proxy utilisent tous deux l'API xDS pour se connecter au plan de contrôle. Si vous utilisez gRPC sans proxy, vous avez le choix entre plusieurs langages compatibles pour vos applications, y compris Go, C++, Java et Python.

Si vous utilisez des API Istio Open Source, votre plan de données est fourni par des proxys Envoy.

Implémentation du plan de contrôle

Votre plan de contrôle Cloud Service Mesh dépend de l'activation ou de la désactivation de votre configuration dans Google Cloud, et si vous êtes un nouveau client.

Implémentation du plan de contrôle pour les utilisateurs existants

Pour déterminer votre plan de contrôle actuel, consultez Identifier l'implémentation du plan de contrôle. Pour en savoir plus sur les plans de contrôle et la migration des plans de contrôle, consultez la présentation du plan de contrôle géré pour les clients existants.

Implémentation du plan de contrôle pour les nouveaux utilisateurs

Migration du plan de contrôle

Si vous êtes un client Anthos Service Mesh et que vous utilisez les API Istio, vos clusters commenceront à migrer vers le plan de contrôle Traffic Director. Vous pouvez continuer à utiliser les API Istio pour la configuration.

Pour déterminer si vos clusters utilisent toujours le plan de contrôle Istio ou s'ils ont migré vers le nouveau plan de contrôle global, consultez Identifier l'implémentation du plan de contrôle.

Étape suivante