Migrer depuis Istio 1.11 ou version ultérieure vers Cloud Service Mesh

Ce tutoriel explique comment migrer une application d'un cluster Google Kubernetes Engine (GKE) à l'aide d'Istio vers un nouveau cluster à l'aide de Cloud Service Mesh géré, le maillage de services Istio entièrement géré de Google.

Dans ce tutoriel, vous allez :

  1. Créez un cluster Google Kubernetes Engine, puis installez Istio et la passerelle d'entrée Istio sur le cluster. Ce cluster servira de cluster existant à partir duquel vous souhaitez migrer.
  2. Déployez l'exemple d'application Boutique en ligne sur le cluster avec Istio.
  3. Créez un autre cluster Google Kubernetes Engine dans le même projet Google Cloud.
  4. Activez Cloud Service Mesh géré sur le deuxième cluster et déployez la passerelle d'entrée de Cloud Service Mesh.
  5. Déployez Online Boutique sur le cluster avec Cloud Service Mesh pour répliquer le déploiement à partir du cluster avec Istio.
  6. Déplacez 50% du trafic utilisateur du cluster avec Istio vers le cluster avec Cloud Service Mesh, en utilisant les fonctionnalités de fractionnement du trafic d'Istio sur le cluster avec Istio.
  7. Terminez la migration d'Istio vers Cloud Service Mesh en pointant l'entrée du système de noms de domaine (DNS) du cluster avec Istio vers le cluster avec Cloud Service Mesh.

Le trafic utilisateur est réparti à 50/50 entre un cluster avec Istio et un cluster avec Cloud Service Mesh. Chaque cluster contient son propre déploiement de la boutique en ligne.

Déploiement Canary

Le "déploiement Canary" est une technique utilisée dans le développement logiciel pour tester une nouvelle version d'un logiciel avant de la publier pour tous les utilisateurs. Il consiste à augmenter progressivement le pourcentage de trafic envoyé à la nouvelle version. Dans ce tutoriel, vous allez configurer un nouveau cluster avec Cloud Service Mesh géré et y transférer progressivement le trafic utilisateur. Vous commencerez par rediriger 0% du trafic utilisateur vers le nouveau cluster, puis 50%, et enfin 100%. En production, vous devez utiliser des incréments plus petits et plus nombreux. Si vous remarquez à un moment donné que le nouveau cluster ne peut pas gérer un pourcentage de trafic, vous pouvez effectuer un rollback en réduisant le pourcentage à 0%.

Plan de contrôle Canary par rapport au cluster Canary

Il existe deux stratégies couramment utilisées pour les migrations d'Istio vers Cloud Service Mesh géré:

  • Migration du plan de contrôle Canary: dans cette stratégie, vous provisionnez Cloud Service Mesh géré sur le même cluster que celui sur lequel Istio est installé.
  • Migration dans un cluster Canary: dans cette stratégie, vous créez un cluster, puis provisionnez Cloud Service Mesh géré dessus.

Dans ce tutoriel, vous allez découvrir la stratégie de migration de cluster Canary.

Coûts

Ce tutoriel utilise les composants facturables suivants de Google Cloud:

Une fois que vous aurez terminé ce tutoriel, évitez de payer des frais en supprimant les ressources que vous avez créées. Pour en savoir plus, consultez la section Effectuer un nettoyage.

Avant de commencer

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the required APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the required APIs.

    Enable the APIs

Lancer Cloud Shell

Dans ce tutoriel, vous allez utiliser Cloud Shell, un environnement shell hébergé sur Google Cloud qui vous permet de gérer vos ressourcesGoogle Cloud .

Cloud Shell est préinstallé avec les outils de ligne de commande Google Cloud CLI, kubectl et istioctl. La CLI gcloud fournit la CLI principale pour Google Cloud.

Ouvrez une session Cloud Shell dans l'angle supérieur droit de cette page, cliquez sur , puis sur Confirmer. Une session Cloud Shell s'ouvre dans un cadre situé en bas de la page. Exécutez les commandes suivantes dans cette session Cloud Shell.

Télécharger l'exemple de code

Clonez les dépôts Git contenant les ressources Kubernetes et Istio que vous utiliserez:

  git clone https://github.com/GoogleCloudPlatform/anthos-service-mesh-samples.git
  git clone https://github.com/GoogleCloudPlatform/microservices-demo.git

Configurer le cluster avec Istio

Créer le cluster et installer Istio

Dans cette section, vous allez créer votre cluster qui utilise Istio. En pratique, il s'agit du ou des clusters que vous utilisez déjà.

  1. Remplacez PROJECT_ID par votre ID de projet et créez un cluster:

    gcloud container clusters create cluster-with-istio \
      --project=PROJECT_ID \
      --zone=us-central1-a \
      --machine-type=e2-standard-2 --num-nodes=3
    
  2. Renommez le contexte du cluster pour le rendre plus facile à utiliser:

    kubectl config rename-context \
      gke_PROJECT_ID_us-central1-a_cluster-with-istio \
      cluster-with-istio
    
  3. Vérifiez que le contexte du cluster a été renommé:

    kubectl config get-contexts --output="name"
    
  4. Installez Istio sur le cluster. Par souci de simplicité, vous allez installer le profil par défaut d'Istio et la version correspondant à votre installation istioctl.

    istioctl install
    

    Vous êtes alors invité à saisir "y", puis à appuyer sur Entrée.

    Le résultat est semblable à :

    This will install the Istio X.Y.Z default profile with ["Istio core" "Istiod" "Ingress gateways"] components into the cluster. Proceed? (y/N)
    ✔ Istio core installed
    ✔ Istiod installed
    ✔ Ingress gateways installed
    ✔ Installation complete
    Making this installation the default for injection and validation.
    

Déployer Online Boutique

  1. Vous allez déployer la boutique en ligne dans un espace de noms distinct appelé onlineboutique. Créez l'espace de noms:

    kubectl \
      --context cluster-with-istio \
      create namespace onlineboutique
    
  2. Déployez les 12 services d'Online Boutique, y compris un générateur de charge qui imite le trafic utilisateur:

    kubectl \
      --namespace=onlineboutique \
      --context=cluster-with-istio \
      apply -f microservices-demo/release/kubernetes-manifests.yaml
    
  3. L'étape précédente a également déployé un service appelé frontend-external (de type LoadBalancer) auquel une adresse IP externe est attribuée. Toutefois, vous ne souhaitez autoriser l'entrée publique que via le déploiement de la passerelle d'entrée Istio. Supprimez la ressource de service frontend-external:

    kubectl \
      --namespace=onlineboutique \
      --context=cluster-with-istio \
      delete service frontend-external
    
  4. Déployez une ressource Gateway Istio et une ressource VirtualService Istio pour que le trafic public puisse accéder à Online Boutique:

    kubectl \
      --namespace=onlineboutique \
      --context=cluster-with-istio \
      apply -f microservices-demo/istio-manifests/frontend-gateway.yaml
    
  5. Récupérez l'adresse IP externe de la passerelle d'entrée Istio:

    kubectl \
      --namespace istio-system \
      --context=cluster-with-istio \
      get service --output jsonpath='{.items[0].status.loadBalancer.ingress[0].ip}'
    
  6. Copiez l'adresse IP externe du service istio-ingressgateway, puis accédez-y via votre navigateur Web. L'exemple d'application Online Boutique s'affiche.

Configurer le nouveau cluster avec Cloud Service Mesh géré

Créer le cluster et provisionner Cloud Service Mesh géré

Dans cette section, vous allez créer le cluster vers lequel vous allez migrer. Vous allez provisionner Cloud Service Mesh géré et déployer Online Boutique afin de répliquer les déploiements à partir du cluster qui utilise Istio.

  1. Créez un cluster :

    gcloud container clusters create cluster-with-csm \
      --project=PROJECT_ID --zone=us-central1-a \
      --machine-type=e2-standard-4 --num-nodes=2 \
      --workload-pool PROJECT_ID.svc.id.goog
    
  2. Renommez le contexte du cluster pour le rendre plus facile à utiliser:

    kubectl config rename-context \
      gke_PROJECT_ID_us-central1-a_cluster-with-csm \
      cluster-with-csm
    
  3. Vérifiez que le contexte du cluster a été renommé:

    kubectl config get-contexts --output="name"
    
  4. Activez Cloud Service Mesh sur le parc de votre projet. Un parc est un regroupement logique de clusters Kubernetes et d'autres ressources qui peuvent être gérés ensemble.

    gcloud container fleet mesh enable --project PROJECT_ID
    

    Le résultat est semblable à :

    Waiting for Feature Service Mesh to be created...done.
    
  5. Enregistrez le cluster dans le parc du projet:

    gcloud container fleet memberships register cluster-with-csm-membership \
      --gke-cluster=us-central1-a/cluster-with-csm \
      --enable-workload-identity \
      --project PROJECT_ID
    

    Le résultat est semblable à :

    Waiting for membership to be created...done.
    Finished registering to the Fleet.
    
  6. Activez Cloud Service Mesh géré sur le cluster:

    gcloud container fleet mesh update \
      --management automatic \
      --memberships cluster-with-csm-membership \
      --project PROJECT_ID
    

    Le résultat est semblable à :

    Waiting for Feature Service Mesh to be updated...done.
    
  7. Vérifiez que Cloud Service Mesh géré a été provisionné pour le cluster et qu'il est prêt à être utilisé:

    gcloud container fleet mesh describe --project PROJECT_ID
    

    Il peut s'écouler environ 10 minutes avant que Cloud Service Mesh ne soit provisionné et prêt à être utilisé sur le cluster. Si controlPlaneManagement.state: DISABLED ou controlPlaneManagement.state: PROVISIONING s'affiche, vous devez relancer la commande précédente toutes les deux ou trois minutes jusqu'à ce que controlPlaneManagement.state: ACTIVE s'affiche.

    Le résultat est semblable à :

    createTime: '2022-07-06T01:05:39.110120474Z'
    membershipSpecs:
      projects/123456789123/locations/global/memberships/cluster-with-csm-membership:
        mesh:
          management: MANAGEMENT_AUTOMATIC
    membershipStates:
      projects/123456789123/locations/global/memberships/cluster-with-csm-membership:
        servicemesh:
          controlPlaneManagement:
            details:
            - code: REVISION_READY
              details: 'Ready: asm-managed'
            state: ACTIVE
          dataPlaneManagement:
            details:
            - code: OK
              details: Service is running.
            state: ACTIVE
        state:
          code: OK
          description: 'Revision(s) ready for use: asm-managed.'
          updateTime: '2022-07-06T01:19:24.243993678Z'
    name: projects/your-project-id/locations/global/features/servicemesh
    resourceState:
      state: ACTIVE
    spec: {}
    state:
      state: {}
    updateTime: '2022-07-06T01:19:27.475885687Z'
    

Déployer la passerelle d'entrée de Cloud Service Mesh

  1. Vous allez déployer la passerelle d'entrée de Cloud Service Mesh dans un espace de noms distinct appelé asm-ingress. Créez l'espace de noms:

    kubectl \
      --context cluster-with-csm \
      create namespace asm-ingress
    
  2. Utilisez le libellé istio.io/rev=asm-managed pour ajouter l'espace de noms asm-ingress au service mesh et activer l'injection automatique de proxys side-car.

    kubectl \
      --context cluster-with-csm \
      label namespace asm-ingress 'istio.io/rev=asm-managed'
    
  3. Déployez la passerelle d'entrée Cloud Service Mesh:

    kubectl \
      --context cluster-with-csm \
      --namespace=asm-ingress \
      apply -f anthos-service-mesh-samples/docs/shared/asm-ingress-gateway/asm-gateway-deployment-svc.yaml
    kubectl \
      --context cluster-with-csm \
      --namespace=asm-ingress \
      apply -f anthos-service-mesh-samples/docs/shared/asm-ingress-gateway/gateway.yaml
    

    Le résultat est semblable à :

    namespace/asm-ingress configured
    serviceaccount/asm-ingressgateway configured
    service/asm-ingressgateway configured
    deployment.apps/asm-ingressgateway configured
    gateway.networking.istio.io/asm-ingressgateway configured
    

Déployer Online Boutique

  1. Vous allez déployer la boutique en ligne dans un espace de noms distinct appelé onlineboutique. Créez l'espace de noms:

    kubectl \
      --context cluster-with-csm \
      create namespace onlineboutique
    
  2. Utilisez le libellé istio.io/rev=asm-managed pour ajouter l'espace de noms onlineboutique au service mesh et activer l'injection automatique de proxy side-car.

    kubectl \
      --context cluster-with-csm \
      label namespace onlineboutique 'istio.io/rev=asm-managed'
    
  3. Déployez les 12 services d'Online Boutique, y compris le générateur de charge qui imite le trafic utilisateur:

    kubectl \
      --context cluster-with-csm \
      --namespace=onlineboutique \
      apply -f anthos-service-mesh-samples/docs/shared/online-boutique/kubernetes-manifests.yaml
    kubectl \
      --context cluster-with-csm \
      --namespace=onlineboutique \
      apply -f anthos-service-mesh-samples/docs/shared/online-boutique/virtual-service.yaml
    
  4. Récupérez l'adresse IP externe de la passerelle d'entrée de Cloud Service Mesh:

    kubectl \
      --context cluster-with-csm \
      --namespace asm-ingress \
      get service --output jsonpath='{.items[0].status.loadBalancer.ingress[0].ip}'
    
  5. Copiez l'adresse IP externe du service asm-ingressgateway, puis accédez-y via votre navigateur Web. L'application exemple Boutique en ligne s'affiche. Vous allez utiliser l'adresse IP externe dans la section suivante. Copiez-la donc dans une variable d'environnement:

    export INGRESS_IP_OF_CLUSTER_WITH_MANAGED_ASM=$( \
      kubectl \
        --context cluster-with-csm \
        --namespace asm-ingress \
        get service --output jsonpath='{.items[0].status.loadBalancer.ingress[0].ip}' \
      )
    

Tester le cluster avec Cloud Service Mesh à l'aide d'un déploiement canari

Dans cette section, vous configurez le cluster avec Istio de sorte que 50% du trafic utilisateur vers Online Boutique soit transféré vers l'instance d'Online Boutique sur le cluster avec Cloud Service Mesh géré. Pour ce faire, vous déployez deux ressources Istio sur le cluster avec Istio:

  • un ServiceEntry pour indiquer à Istio le point de terminaison Online Boutique du cluster Cloud Service Mesh géré
  • un VirtualService pour indiquer à la passerelle d'entrée Istio de diviser le trafic en 50/50.
  1. Définissez l'adresse IP de la passerelle d'entrée du cluster Cloud Service Mesh géré dans la ressource ServiceEntry:

    sed -i "s/1.2.3.4/${INGRESS_IP_OF_CLUSTER_WITH_MANAGED_ASM}/" anthos-service-mesh-samples/docs/migrate-to-managed-asm/service-entry.yaml
    
  2. Déployez ServiceEntry sur le cluster avec Istio:

    kubectl \
      --context cluster-with-istio \
      --namespace onlineboutique \
      apply -f anthos-service-mesh-samples/docs/migrate-to-managed-asm/service-entry.yaml
    
  3. Déployez VirtualService sur le cluster avec Istio:

    kubectl \
      --context cluster-with-istio \
      --namespace onlineboutique \
      apply -f anthos-service-mesh-samples/docs/migrate-to-managed-asm/virtual-service.yaml
    
  4. Accédez à l'adresse IP de la passerelle d'entrée du cluster avec Istio dans votre navigateur Web:

    kubectl \
      --context cluster-with-istio \
      --namespace istio-system \
      get service
    

    Actualisez plusieurs fois la page d'accueil de l'application Online Boutique et vérifiez le pied de page à chaque fois. Notez que 50% des requêtes sont gérées par un pod sur le cluster avec Cloud Service Mesh géré.

Migrer vers le cluster avec Cloud Service Mesh géré

Cette section suppose que vous possédez un nom de domaine et que vous avez accès à ses paramètres DNS (Domain Name Server).

  1. Ajoutez un enregistrement A aux paramètres DNS pour associer le nom de domaine (par exemple, example.com) à l'adresse IP de la passerelle d'entrée exécutée sur le cluster avec Istio.

  2. Accédez à la Boutique en ligne en saisissant le nom de domaine dans votre navigateur Web.

  3. Réduisez la valeur TTL (Time To Live) des enregistrements DNS pour vous assurer de pouvoir rapidement annuler l'entrée DNS si vous devez effectuer un rollback.

  4. Définissez l'enregistrement A de votre nom de domaine sur l'adresse IP externe de la passerelle d'entrée du cluster avec Cloud Service Mesh géré.

  5. Une fois la migration terminée, supprimez le cluster avec Istio:

    gcloud container clusters delete cluster-with-istio \
      --zone=us-central1-a \
      --project=PROJECT_ID
    

Effectuer un nettoyage

Pour éviter que les ressources utilisées dans ce tutoriel soient facturées sur votre compte Google Cloud , supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.

Supprimer le projet

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Supprimer les ressources

Supprimez le cluster avec Cloud Service Mesh géré:

  gcloud container clusters delete cluster-with-managed-asm \
    --zone=us-central1-a \
    --project=PROJECT_ID

Étape suivante