Provisionner un service Anthos Service Mesh géré avec asmcli

Présentation

Anthos Service Mesh géré avec asmcli est un plan de contrôle géré et un plan de données géré qu'il vous suffit de configurer. Google en gère la fiabilité, les mises à niveau, le scaling et la sécurité de manière rétrocompatible. Ce guide explique comment configurer ou migrer des applications vers Anthos Service Mesh géré dans une configuration unique ou multicluster avec asmcli.

Pour en savoir plus sur les fonctionnalités compatibles et les limitations d'Anthos Service Mesh géré, consultez la section Fonctionnalités compatibles avec Anthos Service Mesh géré.

Prérequis

Pour commencer, ce guide suppose que vous avez :

Conditions requises

  • Un ou plusieurs clusters avec une version compatible de GKE, dans l'une des régions compatibles.
  • Assurez-vous que votre cluster dispose d'une capacité suffisante pour les composants requis gérés par Anthos Service Mesh dans le cluster.
    • Le déploiement mdp-controller dans l'espace de noms kube-system demande un processeur de 50 m et une mémoire de 128 Mi.
    • Le daemonset istio-cni-node dans l'espace de noms kube-system demande un processeur de 100 m et de mémoire : 100 Mi sur chaque nœud.
  • Assurez-vous que la machine cliente à partir de laquelle vous provisionnez Anthos Service Mesh géré dispose d'une connectivité réseau au serveur d'API.
  • Les clusters doivent être enregistrés sur un parc. Cette étape peut être effectuée séparément avant le provisionnement ou dans le cadre du provisionnement en transmettant les options --enable-registration et --fleet-id.
  • La fonctionnalité de parc du maillage de services doit être activée dans votre projet. Vous pouvez l'activer dans le cadre du provisionnement en transmettant --enable-gcp-components ou en exécutant la commande suivante:

    gcloud container fleet mesh enable --project=FLEET_PROJECT_ID
    

    FLEET_PROJECT_ID est l'ID du projet hôte du parc.

  • GKE Autopilot n'est compatible qu'avec les versions 1.21.3 et ultérieures de GKE.

  • L'interface CNI Istio est requise et installée par défaut lors du provisionnement d'Anthos Service Mesh géré.

  • Le service Anthos Service Mesh géré peut utiliser plusieurs clusters GKE dans un environnement à réseau unique ou utiliser plusieurs réseaux à projet unique.

    • Si vous joignez des clusters qui ne font pas partie du même projet, ils doivent être enregistrés dans le même projet hôte du parc et doivent tous se trouver dans la configuration d'un VPC partagé sur le même réseau.
    • Pour un environnement multicluster à un seul projet, le projet de parc peut être le même que le projet de cluster. Pour en savoir plus sur les parcs, consultez la page Présentation des parcs.
    • Dans le cas d'un environnement multiprojet, nous vous recommandons d'héberger le parc dans un projet distinct des projets de cluster. Si vos règles d'administration et votre configuration existante le permettent, nous vous recommandons d'utiliser le projet de VPC partagé en tant que projet hôte du parc. Pour en savoir plus, consultez la page Configurer des clusters avec un VPC partagé.
    • Si votre organisation utilise VPC Service Controls et que vous provisionnez des clusters Anthos Service Mesh gérés sur GKE, vous devez également suivre la procédure décrite dans VPC Service Controls pour Anthos Service Mesh.

Limites

Nous vous recommandons de consulter la liste des fonctionnalités compatibles et limitations d'Anthos Service Mesh géré. Observez en particulier les points suivants :

  • L'API IstioOperator n'est pas compatible, car son objectif principal est de contrôler les composants au sein du cluster.

  • Les migrations d'Anthos Service Mesh géré avec asmcli vers Anthos Service Mesh avec l'API Fleet ne sont pas possibles. De même, il n'est pas possible de configurer Anthos Service Mesh géré avec l'API de parc --management manual vers --management automatic.

  • Pour les clusters GKE Autopilot, la configuration multiprojet n'est possible qu'avec GKE 1.23 ou version ultérieure.

  • Pour les clusters GKE Autopilot, afin de s'adapter à la limite de ressources GKE Autopilot, les demandes et limites de ressources de proxy par défaut sont définies sur 500 mCPU et 512 Mo de mémoire. Vous pouvez remplacer les valeurs par défaut à l'aide de l'injection personnalisée.

  • Les fonctionnalités réellement disponibles pour Anthos Service Mesh géré dépendent de la version disponible. Pour en savoir plus, consultez la liste complète des fonctionnalités compatibles et limitations d'Anthos Service Mesh.

  • Au cours du processus de provisionnement d'un plan de contrôle géré, les CRD Istio correspondant au canal sélectionné sont provisionnées dans le cluster spécifié. Si des CRD d'Istio sont présentes dans le cluster, elles seront écrasées.

  • L'interface CNI Istio n'est pas compatible avec GKE Sandbox. Par conséquent, le maillage de services Anthos Service Mesh géré sur Autopilot ne fonctionne pas avec GKE Sandbox, car une CNI Istio gérée est requise.

  • L'outil asmcli doit avoir accès au point de terminaison Google Kubernetes Engine (GKE). Vous pouvez configurer l'accès via un serveur "jump", tel qu'une VM Compute Engine dans le cloud privé virtuel (VPC), en accordant un accès spécifique.

Avant de commencer

Configurer gcloud

Procédez comme suit même si vous utilisez Cloud Shell.

  1. Authentifiez-vous avec Google Cloud CLI :

    gcloud auth login --project PROJECT_ID
    
  2. Mettez à jour les composants :

    gcloud components update
    
  3. Configurez kubectl pour qu'il pointe vers le cluster.

    gcloud container clusters get-credentials CLUSTER_NAME \
         --zone CLUSTER_LOCATION \
         --project PROJECT_ID
    

Télécharger l'outil d'installation

  1. Téléchargez la dernière version de l'outil dans le répertoire de travail actuel :

    curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli
    
  2. Rendez l'outil exécutable :

    chmod +x asmcli
    

Configurer chaque cluster

Procédez comme suit pour configurer Anthos Service Mesh géré pour chaque cluster de votre maillage.

Appliquer le plan de contrôle géré

Avant d'appliquer le plan de contrôle géré, vous devez sélectionner une version disponible.

Exécutez l'outil d'installation pour chaque cluster qui utilisera Anthos Service Mesh géré. Nous vous recommandons d'inclure les deux options suivantes :

  • --enable-registration --fleet_id FLEET_PROJECT_ID Ces deux options enregistrent le cluster dans une flotte, où FLEET_ID est l'ID du projet hôte de la flotte. Si vous utilisez un projet unique, FLEET_PROJECT_ID est identique à PROJECT_ID, le projet hôte du parc et le projet de cluster sont identiques. Dans les configurations plus complexes telles que multiprojets, nous vous recommandons d'utiliser un projet hôte de parc distinct.

  • --enable-all : cette option active à la fois les composants requis et l'enregistrement.

L'outil asmcli configure le plan de contrôle géré directement à l'aide d'outils et de logiques au sein de l'outil CLI. Suivez les instructions ci-dessous en fonction de votre autorité de certification préférée.

Autorités de certification

Sélectionnez une autorité de certification à utiliser pour votre réseau maillé.

Mesh CA

Exécutez la commande suivante pour installer le plan de contrôle avec les fonctionnalités par défaut et Mesh CA. Saisissez vos valeurs dans les espaces réservés fournis. Remplacez RELEASE_CHANNEL par le canal approprié : regular, stable ou rapid.

  ./asmcli install \
      -p PROJECT_ID \
      -l LOCATION \
      -n CLUSTER_NAME \
      --fleet_id FLEET_PROJECT_ID \
      --managed \
      --verbose \
      --output_dir DIR_PATH \
      --enable-all

Service d'autorité de certification

  1. Suivez la procédure décrite dans Configurer l'autorité de certification.
  2. Exécutez la commande suivante pour installer le plan de contrôle avec les fonctionnalités par défaut et Certificate Authority Service. Saisissez vos valeurs dans les espaces réservés fournis. Remplacez RELEASE_CHANNEL par le canal approprié : regular, stable ou rapid.
  ./asmcli install \
      -p PROJECT_ID \
      -l LOCATION \
      -n CLUSTER_NAME \
      --fleet_id FLEET_PROJECT_ID \
      --managed \
      --verbose \
      --output_dir DIR_PATH \
      --enable-all \
      --ca gcp_cas \
      --ca_pool pool_name

L'outil télécharge tous les fichiers de configuration du plan de contrôle géré dans le --output_dir spécifié, en installant l'outil istioctl et les exemples d'applications. Les étapes de ce guide supposent que vous exécutez istioctl à partir de l'emplacement --output_dir que vous avez spécifié lors de l'exécution de asmcli install, avec istioctl présent dans son sous-répertoire <Istio release dir>/bin.

Si vous réexécutez asmcli sur le même cluster, la configuration du plan de contrôle existante est écrasée. Veillez à spécifier les mêmes options si vous souhaitez la même configuration.

Vérifier que le plan de contrôle a été provisionné

Après quelques minutes, vérifiez que l'état du plan de contrôle est ACTIVE :

gcloud container fleet mesh describe --project FLEET_PROJECT_ID

Le résultat est semblable à :

membershipStates:
  projects/746296320118/locations/us-central1/memberships/demo-cluster-1:
    servicemesh:
      controlPlaneManagement:
        details:
        - code: REVISION_READY
          details: 'Ready: asm-managed'
        state: ACTIVE
      ...
    state:
      code: OK
      description: 'Revision(s) ready for use: asm-managed.'

Si l'état n'atteint pas ACTIVE au bout de quelques minutes, consultez la section Vérifier l'état du plan de contrôle géré pour en savoir plus sur les erreurs possibles.

Mises à niveau sans contact

Une fois le plan de contrôle géré installé, Google le met automatiquement à niveau lorsque de nouvelles versions ou de nouveaux correctifs sont disponibles.

Plan de données géré

Si vous utilisez Anthos Service Mesh géré, Google gère entièrement les mises à niveau de vos proxys, sauf si vous les désactivez au niveau de l'espace de noms, de la charge de travail ou de la révision.

Avec le plan de données géré, les proxys side-car et les passerelles injectées sont automatiquement mis à jour conjointement avec le plan de contrôle géré en redémarrant les charges de travail pour réinjecter les nouvelles versions du proxy. Cela se termine généralement une à deux semaines après la mise à niveau du plan de contrôle géré.

Si cette option est désactivée, la gestion du proxy est régie par le cycle de vie naturel des pods du cluster et doit être déclenchée manuellement par l'utilisateur pour contrôler la fréquence de mise à jour.

Le plan de données géré met à niveau les proxys en expulsant les pods qui exécutent des versions antérieures du proxy. Les évictions sont effectuées progressivement, en respectant le budget d'interruption de pods et en contrôlant le taux de modification.

Le plan de données géré ne gère pas les éléments suivants:

  • Pods non injectés
  • Pods injectés manuellement
  • Jobs
  • StatefulSets
  • DaemonSets

Si vous avez provisionné le service Anthos Service Mesh géré sur un ancien cluster, vous pouvez activer la gestion du plan de données pour l'ensemble du cluster:

kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
mesh.cloud.google.com/proxy='{"managed":"true"}'

Vous pouvez également activer le plan de données géré de manière sélective pour une révision de plan de contrôle, un espace de noms ou un pod spécifiques en l'annotant avec la même annotation. Si vous contrôlez des composants individuels de manière sélective, l'ordre de priorité est la révision du plan de contrôle, puis l'espace de noms et le pod.

Il peut être nécessaire d'attendre jusqu'à dix minutes pour que le service soit prêt à gérer les proxys du cluster. Exécutez la commande suivante pour vérifier l'état :

gcloud container fleet mesh describe --project FLEET_PROJECT_ID

Résultat attendu

membershipStates:
  projects/PROJECT_NUMBER/locations/global/memberships/CLUSTER_NAME:
    servicemesh:
      dataPlaneManagement:
        details:
        - code: OK
          details: Service is running.
        state: ACTIVE
    state:
      code: OK
      description: 'Revision(s) ready for use: asm-managed-rapid.'

Si le service n'est pas prêt dans les dix minutes, consultez la section État du plan de données géré pour connaître les étapes suivantes.

Désactiver le plan de données géré (facultatif)

Si vous provisionnez Anthos Service Mesh géré sur un nouveau cluster, vous pouvez désactiver complètement le plan de données géré, ou pour des espaces de noms ou des pods individuels. Le plan de données géré reste désactivé pour les clusters existants sur lesquels il a été désactivé par défaut ou manuellement.

Pour désactiver le plan de données géré au niveau du cluster et revenir à la gestion des proxys side-car vous-même, modifiez l'annotation:

kubectl annotate --overwrite controlplanerevision -n istio-system \
REVISION_LABEL \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Pour désactiver le plan de données géré pour un espace de noms, procédez comme suit:

kubectl annotate --overwrite namespace NAMESPACE \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Pour désactiver le plan de données géré d'un pod, procédez comme suit:

kubectl annotate --overwrite pod POD_NAME \
  mesh.cloud.google.com/proxy='{"managed":"false"}'

Activer les notifications de maintenance

Vous pouvez demander à être informé de la maintenance à venir du plan de données géré jusqu'à une semaine avant la planification de la maintenance. Les notifications de maintenance ne sont pas envoyées par défaut. Vous devez également configurer un intervalle de maintenance GKE avant de pouvoir recevoir des notifications. Lorsque cette option est activée, les notifications sont envoyées au moins deux jours avant l'opération de mise à niveau.

Pour activer les notifications de maintenance du plan de données géré:

  1. Accédez à la page Communication.

    Accédez à la page Communication.

  2. Dans la ligne Mise à niveau d'Anthos Service Mesh, sous la colonne Adresse e-mail, cochez la case d'option pour activer les notifications de maintenance.

Chaque utilisateur souhaitant recevoir des notifications doit activer lui-même l'option. Si vous souhaitez définir un filtre de messagerie pour ces notifications, la ligne d'objet est la suivante :

Upcoming upgrade for your Anthos Service Mesh cluster "CLUSTER_LOCATION/CLUSTER_NAME".

L'exemple suivant montre une notification de maintenance d'un plan de données géré classique:

Objet: Mise à niveau à venir pour votre cluster ASM "<location/cluster-name>"

Bonjour,

La mise à niveau des composants Anthos Service Mesh de votre cluster ${instance_id} (https://console.cloud.google.com/kubernetes/clusters/details/${instance_id}/details?project=${project_id}) est planifiée pour le ${schedule_date_human_ présentés} à ${schedule_time_human_ présentés}.

Vous pouvez consulter les notes de version (https://cloud.google.com/service-mesh/docs/release-notes) pour en savoir plus sur la nouvelle mise à jour.

En cas d'annulation de cette maintenance, nous vous préviendrons par e-mail.

Cordialement,

L'équipe Anthos Service Mesh

(c) 2022 Google LLC, 1600 Amphitheatre Parkway, Mountain View, CA 94043, États-Unis Nous vous avons envoyé cette annonce pour vous informer de changements importants apportés à Google Cloud Platform ou à votre compte. Vous pouvez désactiver les notifications d'intervalles de maintenance en modifiant vos préférences utilisateur: https://console.cloud.google.com/user-preferences/communication?project=${project_id}

Configurer la découverte des points de terminaison (uniquement pour les installations multiclusters)

Avant de continuer, vous devez avoir déjà configuré Anthos Service Mesh géré sur chaque cluster, comme décrit dans les étapes précédentes. Il n'est pas nécessaire d'indiquer qu'un cluster est un cluster principal, car il s'agit du comportement par défaut.

De plus, assurez-vous d'avoir téléchargé asmcli (uniquement si vous souhaitez vérifier votre configuration avec l'exemple d'application) et défini les variables du projet et du cluster.

Clusters publics

Configurer la découverte des points de terminaison entre les clusters publics

Si vous travaillez sur des clusters publics (clusters non privés), vous pouvez configurer la découverte de points de terminaison entre des clusters publics ou plus simplement Activer la découverte de points de terminaison entre clusters publics.

Clusters privés

Configurer la recherche de points de terminaison entre les clusters privés

Lorsque vous utilisez des clusters privés GKE, vous devez configurer le point de terminaison du plan de contrôle pour qu'il soit le point de terminaison public au lieu du point de terminaison privé. Reportez-vous à la section Configurer la recherche de points de terminaison entre les clusters privés.

Pour obtenir un exemple d'application comportant deux clusters, consultez la page Exemple de service HelloWorld.

Déployer des applications

Pour déployer des applications, utilisez le libellé correspondant au canal que vous avez configuré lors de l'installation, ou bien istio-injection=enabled si vous utilisez des libellés d'injection par défaut.

Libellé d'injection par défaut

kubectl label namespace NAMESPACE istio-injection=enabled istio.io/rev- --overwrite

Libellé de révision

Avant de déployer des applications, supprimez les anciens libellés istio-injection de leurs espaces de noms et définissez à la place le libellé istio.io/rev=REVISION_LABEL.

Pour lui attribuer un libellé de révision spécifique, cliquez sur REVISION_LABEL et remplacez-le par le libellé applicable: asm-managed-rapid pour "Rapide", asm-managed pour "Standard" ou asm-managed-stable pour "Stable".

Le libellé de révision correspond à une version disponible :

Libellé de révision Canal
asm-managed Standard
asm-managed-rapid Version précoce
asm-managed-stable Stable
kubectl label namespace NAMESPACE istio-injection- istio.io/rev=REVISION_LABEL --overwrite

À ce stade, vous avez correctement configuré Anthos Service Mesh géré. Si vous avez des charges de travail existantes dans des espaces de noms étiquetés, redémarrez-les pour qu'elles reçoivent des proxys injectés.

Vous êtes maintenant prêt à déployer vos applications. Vous pouvez également déployer l'exemple d'application Bookinfo.

Si vous déployez une application dans une configuration multi-cluster, répliquez la configuration de Kubernetes et du plan de contrôle dans tous les clusters, sauf si vous envisagez de limiter cette configuration à un sous-ensemble de clusters. La configuration appliquée à un cluster particulier est la source de vérité de ce cluster.

Personnaliser l'injection (facultatif)

La configuration par pod permet de remplacer ces options sur des pods individuels. Pour ce faire, ajoutez un conteneur istio-proxy à votre pod. L'injection side-car traite toute configuration définie ici comme un remplacement du modèle d'injection par défaut.

Par exemple, la configuration suivante personnalise divers paramètres, y compris la réduction des requêtes de processeur, l'ajout d'une installation de volume et l'ajout d'un hook preStop:

apiVersion: v1
kind: Pod
metadata:
  name: example
spec:
  containers:
  - name: hello
    image: alpine
  - name: istio-proxy
    image: auto
    resources:
      requests:
        cpu: "200m"
        memory: "256Mi"
      limites:
        cpu: "200m"
        memory: "256Mi"
    volumeMounts:
    - mountPath: /etc/certs
      name: certs
    lifecycle:
      preStop:
        exec:
          command: ["sleep", "10"]
  volumes:
  - name: certs
    secret:
      secretName: istio-certs

En règle générale, n'importe quel champ d'une série d'annonces peut être défini. Toutefois, vous devez faire attention à certains champs:

  • Kubernetes nécessite que le champ image soit défini avant l'exécution de l'injection. Bien que vous puissiez définir une image spécifique pour remplacer l'image par défaut, nous vous recommandons de définir image sur auto. L'injecteur de side-car sélectionnera alors automatiquement l'image à utiliser.
  • Certains champs de containers dépendent de paramètres associés. Par exemple, le nombre de requêtes de processeur doit être inférieur à la limite de processeur. Si ces deux champs ne sont pas correctement configurés, le pod risque de ne pas démarrer.
  • Kubernetes vous permet de définir à la fois requests et limits pour les ressources de votre PodSpec. GKE Autopilot ne prend en compte que requests. Pour en savoir plus, consultez la section Définir des limites de ressources dans Autopilot.

En outre, certains champs peuvent être configurés par des annotations sur le pod, bien qu'il soit recommandé d'utiliser l'approche ci-dessus pour personnaliser les paramètres. Des précautions supplémentaires doivent être prises concernant certaines annotations:

  • Pour GKE Standard, si sidecar.istio.io/proxyCPU est défini, veillez à définir explicitement sidecar.istio.io/proxyCPULimit. Sinon, la limite de processeur du side-car sera définie comme illimitée.
  • Pour GKE Standard, si sidecar.istio.io/proxyMemory est défini, veillez à définir explicitement sidecar.istio.io/proxyMemoryLimit. Sinon, la limite de mémoire du side-car sera définie comme illimitée.
  • Pour GKE Autopilot, la configuration des ressources requests et limits à l'aide d'annotations peut entraîner un surprovisionnement des ressources. Pour éviter cela, utilisez l'approche des modèles d'images. Consultez Exemples de modification de ressources dans Autopilot.

Par exemple, consultez la configuration d'annotation de ressources ci-dessous:

spec:
  template:
    metadata:
      annotations:
        sidecar.istio.io/proxyCPU: "200m"
        sidecar.istio.io/proxyCPULimit: "200m"
        sidecar.istio.io/proxyMemory: "256Mi"
        sidecar.istio.io/proxyMemoryLimit: "256Mi"

Vérifier les métriques du plan de contrôle

Vous pouvez afficher la version du plan de contrôle et du plan de données dans l'Explorateur de métriques.

Pour vérifier que la configuration fonctionne correctement, procédez comme suit :

  1. Dans la console Google Cloud, affichez les métriques du plan de contrôle :

    Accéder à l'explorateur de métriques

  2. Choisissez votre espace de travail et ajoutez une requête personnalisée à l'aide des paramètres suivants :

    • Type de ressource : conteneur Kubernetes
    • Métrique : Clients proxy
    • Filtre : container_name="cr-REVISION_LABEL"
    • Grouper par: libellés revision et proxy_version
    • Aggregator (Agrégateur) : sum
    • Période : 1 minute

    Lorsque vous exécutez Anthos Service Mesh avec à la fois un plan de contrôle géré par Google et un plan de contrôle au sein du cluster, vous pouvez distinguer les métriques en fonction de leur nom de conteneur. Par exemple, les métriques gérées comportent container_name="cr-asm-managed", tandis que les métriques non gérées comportent container_name="discovery". Pour afficher les métriques gérées et non gérées, supprimez le filtre sur container_name="cr-asm-managed".

  3. Vérifiez la version du plan de contrôle et la version du proxy en inspectant les champs suivants dans l'explorateur de métriques :

    • Le champ revision indique la version du plan de contrôle.
    • Le champ proxy_version indique la valeur proxy_version.
    • Le champ value indique le nombre de proxys connectés.

    Pour le mappage entre le canal actuel et la version d'Anthos Service Mesh, consultez la section Versions d'Anthos Service Mesh par canal.

Migrer des applications vers Anthos Service Mesh géré

Préparer la migration

Pour préparer la migration des applications depuis Anthos Service Mesh dans le cluster vers Anthos Service Mesh géré, procédez comme suit:

  1. Exécutez l'outil comme indiqué dans la section Appliquer le plan de contrôle géré par Google.

  2. (Facultatif) Si vous souhaitez utiliser le plan de données géré par Google, activez la gestion du plan de données :

      kubectl annotate --overwrite controlplanerevision REVISION_TAG \
      mesh.cloud.google.com/proxy='{"managed":"true"}'
    

Migrer des applications

Pour migrer des applications d'Anthos Service Mesh dans un cluster vers Anthos Service Mesh géré, procédez comme suit:

  1. Remplacez le libellé de l'espace de noms actuel. Les étapes requises varient selon que vous souhaitez utiliser des libellés d'injection par défaut (par exemple, istio-injection enabled) ou le libellé de révision.

    Libellé d'injection par défaut

    1. Exécutez la commande suivante pour déplacer le tag par défaut vers la révision gérée :

      istioctl tag set default --revision REVISION_LABEL
      
    2. Si ce n'est pas déjà fait, exécutez la commande suivante pour ajouter un libellé à l'espace de noms à l'aide de istio-injection=enabled :

      kubectl label namespace NAMESPACE istio-injection=enabled istio.io/rev- \
      --overwrite
      

    Libellé de révision

    Si vous avez utilisé le libellé istio.io/rev=REVISION_LABEL, exécutez la commande suivante :

    kubectl label namespace NAMESPACE istio-injection- istio.io/rev=REVISION_LABEL \
        --overwrite
    
  2. Effectuez une mise à niveau progressive des déploiements dans l'espace de noms :

    kubectl rollout restart deployment -n NAMESPACE
    
  3. Testez votre application pour vérifier que les charges de travail fonctionnent correctement.

  4. Si vous avez des charges de travail dans d'autres espaces de noms, répétez les étapes précédentes pour chaque espace de noms.

  5. Si vous avez déployé l'application dans une configuration multi.cluster, répliquez la configuration de Kubernetes et d'Istio dans tous les clusters, sauf si vous souhaitez limiter cette configuration à un sous-ensemble de clusters uniquement. La configuration appliquée à un cluster particulier est la source de vérité de ce cluster.

  6. Vérifiez que les métriques s'affichent comme prévu en suivant les étapes décrites dans la section Vérifier les métriques du plan de contrôle.

Si vous êtes sûr que votre application fonctionne comme prévu, vous pouvez supprimer le istiod du cluster après avoir basculé tous les espaces de noms sur le plan de contrôle géré, ou les conserver en tant que sauvegarde. istiod s'adapte automatiquement pour utiliser moins de ressources. Pour le supprimer, passez à la section Supprimer l'ancien plan de contrôle.

Si vous rencontrez des problèmes, vous pouvez les identifier et les résoudre en utilisant les informations figurant dans la section Résoudre les problèmes liés au plan de contrôle géré et, si nécessaire, effectuer un rollback vers la version précédente.

Supprimer l'ancien plan de contrôle

Après avoir installé et vérifié que tous les espaces de noms utilisent le plan de contrôle géré par Google, vous pouvez supprimer l'ancien plan de contrôle.

kubectl delete Service,Deployment,HorizontalPodAutoscaler,PodDisruptionBudget istiod -n istio-system --ignore-not-found=true

Si vous avez utilisé istioctl kube-inject au lieu de l'injection automatique ou si vous avez installé des passerelles supplémentaires, vérifiez les métriques du plan de contrôle et vérifiez que le nombre de points de terminaison connectés est de zéro.

Rollback

Pour effectuer un rollback vers la version précédente du plan de contrôle, procédez comme suit :

  1. Mettez à jour les charges de travail à injecter avec la version précédente du plan de contrôle. Dans la commande suivante, la valeur de révision asm-191-1 n'est utilisée qu'à titre d'exemple. Remplacez l'exemple de valeur par le libellé de révision de votre précédent plan de contrôle.

    kubectl label namespace NAMESPACE istio-injection- istio.io/rev=asm-191-1 --overwrite
    
  2. Redémarrez les pods pour déclencher une réinjection afin que les proxys disposent de la version précédente :

    kubectl rollout restart deployment -n NAMESPACE
    

Le plan de contrôle géré effectue un scaling automatique à zéro instance et n'utilise aucune ressource lorsqu'il n'est pas utilisé. Les webhooks et le provisionnement en mutation restent inchangés et n'affectent pas le comportement du cluster.

La passerelle est maintenant définie sur la révision asm-managed. Pour effectuer un rollback, exécutez à nouveau la commande d'installation d'Anthos Service Mesh, qui redéploiera la passerelle en pointant vers votre plan de contrôle au sein du cluster :

kubectl -n istio-system rollout undo deploy istio-ingressgateway

Attendez-vous à ce résultat :

deployment.apps/istio-ingressgateway rolled back

Désinstaller

Le plan de contrôle géré effectue un autoscaling à zéro lorsqu'aucun espace de noms ne l'utilise. Pour obtenir la procédure détaillée, consultez la section Désinstaller Anthos Service Mesh.

Dépannage

Pour identifier et résoudre les problèmes lors de l'utilisation du plan de contrôle géré, consultez la section Résoudre les problèmes liés au plan de contrôle géré.

Étape suivante