Configurer un équilibreur de charge réseau passthrough externe avec un service de backend

Ce guide fournit des instructions pour créer un déploiement d'équilibreur de charge réseau passthrough externe à l'aide d'un service de backend régional. Cet exemple crée un équilibreur de charge réseau passthrough externe qui accepte le trafic TCP ou UDP. Si vous souhaitez créer un équilibreur de charge réseau passthrough externe qui équilibre le trafic TCP, UDP, ESP, GRE, ICMP et ICMPv6 (pas seulement TCP ou UDP), consultez Configurer un équilibreur de charge réseau passthrough externe pour plusieurs protocoles IP.

Dans cet exemple, nous utilisons l'équilibreur de charge pour répartir le trafic TCP entre les VM de backend de deux groupes d'instances gérés zonaux dans la région us-central1. Une approche tout aussi valide consiste à utiliser un seul groupe d'instances géré régional pour la région us-central1.

Équilibreur de charge réseau passthrough externe avec des groupes d'instances zonaux
Équilibreur de charge réseau passthrough externe avec des groupes d'instances zonaux

Ce scénario répartit le trafic TCP entre les instances saines. Dans le cadre de cet exemple, des vérifications d'état TCP sont configurées pour garantir que le trafic n'est envoyé qu'aux instances saines. Notez que les vérifications d'état TCP ne sont compatibles qu'avec un équilibreur de charge basé sur le service de backend. Les équilibreurs de charge basés sur un pool cible ne peuvent utiliser que les anciennes vérifications d'état HTTP.

Cet exemple de charge équilibre le trafic TCP, mais vous pouvez utiliser des équilibreurs de charge réseau passthrough externes basés sur un service de backend pour équilibrer le trafic TCP, UDP, ESP, GRE, ICMP et ICMPv6.

L'équilibreur de charge réseau passthrough externe est un équilibreur de charge régional. Tous les composants de l'équilibreur de charge (VM de backend, service de backend et règle de transfert) doivent se trouver dans la même région.

Avant de commencer

Installez Google Cloud CLI. Pour une présentation complète de l'outil, consultez la présentation de gcloud CLI. Vous trouverez des commandes liées à l'équilibrage de charge dans la documentation de référence sur l'API et sur gcloud.

Si vous n'avez pas encore utilisé Google Cloud CLI, exécutez d'abord la commande gcloud init pour vous authentifier.

Dans ce guide, nous partons du principe que vous maîtrisez bash.

Configurer le réseau et les sous-réseaux

L'exemple de cette page utilise un réseau VPC en mode personnalisé nommé lb-network. Vous pouvez utiliser un réseau VPC en mode automatique si vous souhaitez uniquement gérer le trafic IPv4. Cependant, le trafic IPv6 requiert un sous-réseau en mode personnalisé.

Le trafic IPv6 nécessite également un sous-réseau à double pile (stack-type défini sur IPv4_IPv6). Lorsque vous créez un sous-réseau à double pile sur un réseau VPC en mode personnalisé, choisissez un type d'accès IPv6 pour le sous-réseau. Pour cet exemple, nous définissons le paramètre ipv6-access-type du sous-réseau sur EXTERNAL. Cela signifie que les nouvelles VM de ce sous-réseau peuvent se voir attribuer des adresses IPv4 externes et des adresses IPv6 externes. Les règles de transfert peuvent également être attribuées à la fois à des adresses IPv4 externes et à des adresses IPv6 externes.

Les backends et les composants de l'équilibreur de charge utilisés pour cet exemple sont situés dans cette région et ce sous-réseau :

  • Région : us-central1
  • Sous-réseau: lb-subnet, avec plage d'adresses IPv4 principale 10.1.2.0/24. Bien que vous choisissiez la plage d'adresses IPv4 configurée sur le sous-réseau, la plage d'adresses IPv6 est attribuée automatiquement. Google fournit un bloc CIDR IPv6 de taille fixe (/64).

Pour créer les exemples de réseau et de sous-réseaux, procédez comme suit :

Console

Pour assurer la compatibilité avec le trafic IPv4 et IPv6, procédez comme suit:

  1. Dans la console Google Cloud, accédez à la page Réseaux VPC.

    Accéder aux réseaux VPC

  2. Cliquez sur Créer un réseau VPC.

  3. Saisissez le nom lb-network.

  4. Dans la section Sous-réseaux :

    • Définissez Mode de création du sous-réseau sur Personnalisé.
    • Dans la section Nouveau sous-réseau, configurez les champs suivants, puis cliquez sur OK :
      • Nom : lb-subnet
      • Région : us-central1
      • Type de pile d'adresses IP: IPv4 et IPv6 (double pile)
      • Plage IPv4: 10.1.2.0/24
        Bien que vous puissiez configurer une plage d'adresses IPv4 pour le sous-réseau, vous ne pouvez pas choisir la plage d'adresses IPv6 pour Le sous-réseau. Google fournit un bloc CIDR IPv6 de taille fixe (/64).
      • Type d'accès IPv6: Externe
  5. Cliquez sur Créer.

Pour assurer la compatibilité avec le trafic IPv4 uniquement, procédez comme suit :

  1. Dans la console Google Cloud, accédez à la page Réseaux VPC.

    Accéder aux réseaux VPC

  2. Cliquez sur Créer un réseau VPC.

  3. Saisissez le nom lb-network.

  4. Dans la section Sous-réseaux :

    • Définissez Mode de création du sous-réseau sur Personnalisé.
    • Dans la section Nouveau sous-réseau, configurez les champs suivants, puis cliquez sur OK :
      • Nom : lb-subnet
      • Région : us-central1
      • Type de pile IP: IPv4 (pile unique)
      • Plage IPv4 : 10.1.2.0/24
  5. Cliquez sur Créer.

gcloud

  1. Créez le réseau VPC en mode personnalisé:

    gcloud compute networks create lb-network \
        --subnet-mode=custom
    
  2. Au sein du réseau lb-network, créez un sous-réseau pour les backends dans la région us-central1.

    Pour le trafic IPv4 et IPv6, utilisez la commande suivante pour créer un sous-réseau à double pile :

    gcloud compute networks subnets create lb-subnet \
      --stack-type=IPV4_IPv6 \
      --ipv6-access-type=EXTERNAL \
      --network=lb-network \
      --range=10.1.2.0/24 \
      --region=us-central1
    

    Pour le trafic IPv4 uniquement, utilisez la commande suivante:

    gcloud compute networks subnets create lb-subnet \
      --network=lb-network \
      --range=10.1.2.0/24 \
      --region=us-central1
    

Créer les groupes d'instances gérés zonaux

Dans ce scénario d'équilibrage de charge, vous allez créer deux groupes d'instances gérés zonaux Compute Engine et installer un serveur Web Apache sur chaque instance.

Pour gérer le trafic IPv4 et IPv6, configurez les VM backend en une pile double. Définissez le paramètre stack-type de la VM sur IPv4_IPv6. Les VM héritent également du paramètre ipv6-access-type (dans cet exemple, EXTERNAL) du sous-réseau. Pour en savoir plus sur les exigences IPv6, consultez la page Présentation de l'équilibreur de charge réseau passthrough externe : règles de transfert.

Pour utiliser des VM existantes comme backends, mettez-les à jour en pile double à l'aide de la commande gcloud compute instances network-interfaces update.

Les instances qui participent en tant que VM backend pour les équilibreurs de charge réseau passthrough externes doivent exécuter l'environnement invité Linux, l'environnement invité Windows ou d'autres processus appropriés présentant des fonctionnalités équivalentes.

Configurer les instances

Console

  1. Créez un modèle d'instance. Dans Google Cloud Console, accédez à la page Modèles d'instances.

    Accéder à la page Modèles d'instances

    1. Cliquez sur Create instance template (Créer un modèle d'instance).
    2. Dans le champ Nom, saisissez ig-us-template.
    3. Dans la section Disque de démarrage, assurez-vous que l'image est définie sur une image Debian, telle que Debian GNU/Linux 12 (bookworm). Ces instructions utilisent des commandes uniquement disponibles dans Debian, comme apt-get.
    4. Cliquez sur Options avancées.
    5. Cliquez sur Mise en réseau.
      1. Pour Tags réseau, saisissez lb-tag.
      2. Pour Interfaces réseau, cliquez sur l'interface default et configurez les champs suivants :
        • Réseau : lb-network
        • Sous-réseau : lb-subnet
      3. Cliquez sur OK.
    6. Cliquez sur Gestion et copiez le script suivant dans le champ Script de démarrage.

      #! /bin/bash
      apt-get update
      apt-get install apache2 -y
      a2ensite default-ssl
      a2enmod ssl
      vm_hostname="$(curl -H "Metadata-Flavor:Google" \
      http://metadata.google.internal/computeMetadata/v1/instance/name)"
      echo "Page served from: $vm_hostname" | \
      tee /var/www/html/index.html
      systemctl restart apache2
      
    7. Cliquez sur Créer.

  2. Créez un groupe d'instances géré. Dans la console Google Cloud, accédez à la page Groupes d'instances.

    Accéder à la page "Groupes d'instances"

    1. Cliquez sur Créer un groupe d'instances.
    2. Sélectionnez Nouveau groupe d'instances géré (sans état). Pour plus d'informations, consultez la page Groupes d'instances gérés (MIG) sans état ou avec état.
    3. Dans le champ Nom, saisissez ig-us-1.
    4. Pour Modèle d'instance, sélectionnez ig-us-template.
    5. Pour Emplacement, sélectionnez Zone unique.
    6. Pour Région, sélectionnez us-central1.
    7. Pour Zone, sélectionnez us-central1-a.
    8. Spécifiez le nombre d'instances que vous souhaitez créer au sein du groupe.

      Pour cet exemple, spécifiez les options suivantes dans la section Autoscaling :

      • Dans le champ Mode autoscaling, sélectionnez Off:do not autoscale.
      • Dans le champ Nombre maximal d'instances, saisissez 2.
    9. Cliquez sur Create (Créer).

  3. Répétez les étapes précédentes pour créer un deuxième groupe d'instances géré dans la zone us-central1-c avec les spécifications suivantes :

    • Nom : ig-us-2
    • Zone : us-central1-c
    • Modèle d'instance : utilisez le même modèle ig-us-template que celui créé dans la section précédente.

gcloud

Les instructions gcloud de ce guide supposent que vous utilisez Cloud Shell ou un autre environnement avec bash installé.

  1. Créez un modèle d'instance de VM avec le serveur HTTP à l'aide de la commande gcloud compute instance-templates create.

    Pour gérer le trafic IPv4 et IPv6, utilisez la commande suivante.

    gcloud compute instance-templates create ig-us-template \
    --region=us-central1 \
    --network=lb-network \
    --subnet=lb-subnet \
    --ipv6-network-tier=PREMIUM \
    --stack-type=IPv4_IPv6 \
    --tags=lb-tag \
    --image-family=debian-12 \
    --image-project=debian-cloud \
    --metadata=startup-script='#! /bin/bash
      apt-get update
      apt-get install apache2 -y
      a2ensite default-ssl
      a2enmod ssl
      vm_hostname="$(curl -H "Metadata-Flavor:Google" \
      http://metadata.google.internal/computeMetadata/v1/instance/name)"
      echo "Page served from: $vm_hostname" | \
      tee /var/www/html/index.html
      systemctl restart apache2'
    

    Pour gérer le trafic IPv4 uniquement, utilisez la commande suivante.

    gcloud compute instance-templates create ig-us-template \
    --region=us-central1 \
    --network=lb-network \
    --subnet=lb-subnet \
    --tags=lb-tag \
    --image-family=debian-12 \
    --image-project=debian-cloud \
    --metadata=startup-script='#! /bin/bash
      apt-get update
      apt-get install apache2 -y
      a2ensite default-ssl
      a2enmod ssl
      vm_hostname="$(curl -H "Metadata-Flavor:Google" \
      http://metadata.google.internal/computeMetadata/v1/instance/name)"
      echo "Page served from: $vm_hostname" | \
      tee /var/www/html/index.html
      systemctl restart apache2'
    
  2. Créez un groupe d'instances géré dans la zone à l'aide de la commande gcloud compute instance-groups managed create.

    gcloud compute instance-groups managed create ig-us-1 \
        --zone us-central1-a \
        --size 2 \
        --template ig-us-template
    
  3. Créez un deuxième groupe d'instances géré dans la zone us-central1-c :

    gcloud compute instance-groups managed create ig-us-2 \
        --zone us-central1-c \
        --size 2 \
        --template ig-us-template
    

Configurer les règles de pare-feu

Créez des règles de pare-feu permettant au trafic externe (qui inclut les tests de vérification d'état) d'atteindre les instances backend.

Cet exemple crée une règle de pare-feu permettant au trafic TCP de toutes les plages sources d'atteindre vos instances backend sur le port 80. Si vous souhaitez créer des règles de pare-feu distinctes qui sont spécifiques aux vérifications d'état, utilisez les plages d'adresses IP sources décrites dans la section Présentation des vérifications d'état: plages d'adresses IP de vérification et règles de pare-feu.

Console

  1. Dans la console Google Cloud, accédez à la page Règles d'administration.

    Accéder à la page "Stratégies de pare-feu"

  2. Pour autoriser le trafic IPv4, procédez comme suit :

    1. Cliquez sur Créer une règle de pare-feu.
    2. Dans le champ Nom, saisissez allow-network-lb-ipv4.
    3. Dans la liste Réseau, sélectionnez lb-network.
    4. Pour Cibles, sélectionnez Specified target tags (Tags cibles spécifiés).
    5. Dans le champ Tags cibles, saisissez lb-tag.
    6. Dans la section Filtre source, sélectionnez Plages IPv4.
    7. Définissez les plages IPv4 sources sur 0.0.0.0/0. Cela autorise le trafic IPv4 depuis n'importe quelle source. Cela permet également aux vérifications d'état de Google d'atteindre les instances backend.
    8. Dans le champ Protocoles et ports spécifiés, cochez la case TCP, puis saisissez 80.
    9. Cliquez sur Créer. L'affichage de la nouvelle règle de pare-feu dans Google Cloud Console peut prendre un certain temps. Vous devrez peut-être cliquer sur Actualiser pour qu'elle apparaisse.
  3. Pour autoriser le trafic IPv6, procédez comme suit :

    1. Cliquez à nouveau sur Créer une règle de pare-feu.
    2. Dans le champ Nom, saisissez allow-network-lb-ipv6.
    3. Dans la liste Réseau, sélectionnez lb-network.
    4. Pour Cibles, sélectionnez Specified target tags (Tags cibles spécifiés).
    5. Dans le champ Tags cibles, saisissez lb-tag.
    6. Dans la section Filtre source, sélectionnez Plages IPv6.
    7. Définissez les plages IPv6 sources sur ::/0. Cela autorise le trafic IPv6 depuis n'importe quelle source. Cela permet également aux vérifications d'état de Google d'atteindre les instances backend.
    8. Dans le champ Protocoles et ports spécifiés, cochez la case TCP, puis saisissez 80.
    9. Cliquez sur Créer. L'affichage de la nouvelle règle de pare-feu dans la console peut prendre un certain temps. Vous devrez peut-être cliquer sur Actualiser pour qu'elle apparaisse.

gcloud

  1. Pour autoriser le trafic IPv4, exécutez la commande suivante:

    gcloud compute firewall-rules create allow-network-lb-ipv4 \
        --network=lb-network \
        --target-tags=lb-tag \
        --allow=tcp:80 \
        --source-ranges=0.0.0.0/0
    
  2. Pour autoriser le trafic IPv6, exécutez la commande suivante:

    gcloud compute firewall-rules create allow-network-lb-ipv6 \
      --network=lb-network \
      --target-tags=lb-tag \
      --allow=tcp:80 \
      --source-ranges=::/0
    

Configurer l'équilibreur de charge

Configurez ensuite l'équilibreur de charge.

Lorsque vous configurez l'équilibreur de charge, vos instances de machines virtuelles (VM) reçoivent les paquets destinés à l'adresse IP externe statique configurée. Si vous utilisez une image fournie par Compute Engine, vos instances de VM sont automatiquement configurées pour gérer cette adresse IP. Si vous utilisez une autre image, vous devez configurer cette adresse en tant qu'alias sur eth0 ou en tant qu'adresse de rebouclage sur chaque instance.

Pour configurer l'équilibreur de charge, suivez les instructions ci-dessous.

Console

Démarrer la configuration

  1. Dans Google Cloud Console, accédez à la page Équilibrage de charge.

    Accéder à la page "Équilibrage de charge"

  2. Cliquez sur Créer un équilibreur de charge.
  3. Sous Type d'équilibreur de charge, sélectionnez Équilibreur de charge réseau (TCP/UDP/SSL), puis cliquez sur Suivant.
  4. Pour Proxy ou passthrough, sélectionnez Équilibreur de charge passthrough, puis cliquez sur Suivant.
  5. Pour Public ou interne, sélectionnez Public (externe), puis cliquez sur Suivant.
  6. Cliquez sur Configurer.

Configuration du backend

  1. Sur la page Créer un équilibreur de charge réseau passthrough externe, saisissez le nom tcp-network-lb du nouvel équilibreur de charge.
  2. Pour Région, sélectionnez us-central1.
  3. Cliquez sur Configuration du backend.
  4. Sur l'écran Configuration du backend, apportez les modifications suivantes :
    1. Sous Nouveau backend, sélectionnez le type de pile IP. Si vous avez créé des backends de pile double pour gérer le trafic IPv4 et IPv6, sélectionnez IPv4 et IPv6 (double pile). Pour ne gérer que le trafic IPv4, sélectionnez IPv4 (pile unique).
    2. Dans la liste Groupe d'instances, sélectionnez ig-us-1, puis cliquez sur Terminé.
    3. Cliquez sur Ajouter un backend et répétez cette étape pour ajouter ig-us-2.
    4. Pour Vérification d'état, cliquez sur Créer une vérification d'état ou Créer une autre vérification d'état, puis saisissez les informations suivantes :
      • Nom : tcp-health-check
      • Protocole : TCP
      • Port : 80
    5. Cliquez sur Enregistrer.
  5. Vérifiez qu'une coche bleue apparaît à côté de Configuration du backend avant de continuer.

Configuration de l'interface

  1. Cliquez sur Configuration de l'interface.
  2. Dans le champ Nom, saisissez network-lb-forwarding-rule.
  3. Pour gérer le trafic IPv4, procédez comme suit :
    1. Pour Version IP, sélectionnez IPv4.
    2. Dans la section Objectif de l'adresse IP interne, dans la liste Adresse IP, sélectionnez Créer une adresse IP.
      1. Sur la page Réserver une nouvelle adresse IP statique, saisissez network-lb-ipv4 dans le champ Nom.
      2. Cliquez sur Réserver.
    3. Dans le champ Ports, sélectionnez Unique. Pour Numéro de port, saisissez 80.
    4. Cliquez sur OK.
  4. Pour gérer le trafic IPv6, procédez comme suit :

    1. Pour Version IP, sélectionnez IPv6.
    2. Pour le Sous-réseau, sélectionnez lb-subnet.
    3. Dans la liste Plage IPv6, sélectionnez Créer une adresse IP.
      1. Sur la page Réserver une nouvelle adresse IP statique, saisissez network-lb-ipv6 dans le champ Nom.
      2. Cliquez sur Réserver.
    4. Dans Ports, sélectionnez Unique. Pour Numéro de port, saisissez 80.
    5. Cliquez sur OK.

    Si un cercle bleu avec une coche s'affiche à gauche de Configuration du frontend, cela indique que la configuration a réussi.

Vérifier la configuration

  1. Cliquez sur Vérifier et finaliser.
  2. Vérifiez les paramètres de configuration de votre équilibreur de charge.
  3. Facultatif : cliquez sur Code équivalent pour afficher la requête API REST qui sera utilisée pour créer l'équilibreur de charge.
  4. Cliquez sur Créer.

    Sur l'écran Équilibrage de charge, sous la colonne Backend qui concerne votre nouvel équilibreur de charge, vous devriez voir une coche verte indiquant que celui-ci est opérationnel.

gcloud

  1. Réservez une adresse IP externe statique.

    Pour le trafic IPv4 : créez une adresse IPv4 externe statique pour votre équilibreur de charge.

    gcloud compute addresses create network-lb-ipv4 \
        --region us-central1
    

    Pour le trafic IPv6 : créez une plage d'adresses IPv6 externe statique pour votre équilibreur de charge. Le sous-réseau utilisé doit être un sous-réseau à double pile avec une plage IPv6 externe.

    gcloud compute addresses create network-lb-ipv6 \
        --region us-central1 \
        --subnet lb-subnet \
        --ip-version IPV6 \
        --endpoint-type NETLB
    
  2. Créer une vérification d'état TCP

    gcloud compute health-checks create tcp tcp-health-check \
        --region us-central1 \
        --port 80
    
  3. Créez un service de backend :

    gcloud compute backend-services create network-lb-backend-service \
        --protocol TCP \
        --health-checks tcp-health-check \
        --health-checks-region us-central1 \
        --region us-central1
    
  4. Ajoutez les deux groupes d'instances au service de backend :

    gcloud compute backend-services add-backend network-lb-backend-service \
    --instance-group ig-us-1 \
    --instance-group-zone us-central1-a \
    --region us-central1
    
    gcloud compute backend-services add-backend network-lb-backend-service \
    --instance-group ig-us-2 \
    --instance-group-zone us-central1-c \
    --region us-central1
    
  5. Créez les règles de transfert selon que vous souhaitez gérer le trafic IPv4 ou IPv6. Créez les deux règles de transfert pour gérer ces deux types de trafic.

    1. Pour le trafic IPv4 : créez une règle de transfert pour acheminer le trafic TCP entrant vers le service de backend. Utilisez l'adresse IPv4 réservée à l'étape 1 comme adresse IP externe statique de l'équilibreur de charge.

      gcloud compute forwarding-rules create network-lb-forwarding-rule-ipv4 \
        --load-balancing-scheme EXTERNAL \
        --region us-central1 \
        --ports 80 \
        --address network-lb-ipv4 \
        --backend-service network-lb-backend-service
      
    2. Pour le trafic IPv6 : créez une règle de transfert pour gérer le trafic IPv6. Utilisez la plage d'adresses IPv6 réservée à l'étape 1 comme adresse IP externe statique de l'équilibreur de charge. Le sous-réseau utilisé doit être un sous-réseau à double pile avec une plage de sous-réseau IPv6 externe.

      gcloud compute forwarding-rules create network-lb-forwarding-rule-ipv6 \
          --load-balancing-scheme EXTERNAL \
          --region us-central1 \
          --network-tier PREMIUM \
          --ip-version IPV6 \
          --subnet lb-subnet \
          --address network-lb-ipv6 \
          --ports 80 \
          --backend-service network-lb-backend-service
      

Tester l'équilibreur de charge

Maintenant que le service d'équilibrage de charge est configuré, vous pouvez commencer à envoyer le trafic vers l'adresse IP externe de l'équilibreur de charge et surveiller le trafic qui est distribué aux instances backend.

Rechercher l'adresse IP externe de l'équilibreur de charge

Console

  1. Sur la page Composants d'équilibrage de charge, accédez à l'onglet Règles de transfert.

    Accéder à la page Règles de transfert

  2. Localisez la règle de transfert utilisée par l'équilibreur de charge.

  3. Notez l'adresse IP externe indiquée dans la colonne Adresse IP externe.

gcloud: IPv4

Saisissez la commande suivante pour afficher l'adresse IPv4 externe de la règle de transfert network-lb-forwarding-rule utilisée par l'équilibreur de charge.

gcloud compute forwarding-rules describe network-lb-forwarding-rule-ipv4 \
    --region us-central1

gcloud: IPv6

Saisissez la commande suivante pour afficher l'adresse IPv6 externe de la règle de transfert network-lb-forwarding-rule utilisée par l'équilibreur de charge.

gcloud compute forwarding-rules describe network-lb-forwarding-rule-ipv6 \
    --region us-central1

Envoyer du trafic vers l'équilibreur de charge

Envoyez des requêtes Web à l'équilibreur de charge à l'aide de curl pour contacter son adresse IP.

  • À partir de clients disposant d'une connectivité IPv4, exécutez la commande suivante:

    $ while true; do curl -m1 IPV4_ADDRESS; done
    
  • À partir de clients disposant d'une connectivité IPv6, exécutez la commande suivante:

    $ while true; do curl -m1 http://IPV6_ADDRESS; done
    

    Par exemple, si l'adresse IPv6 attribuée est [2001:db8:1:1:1:1:1:1/96]:80, la commande doit se présenter comme suit:

    $ while true; do curl -m1 http://[2001:db8:1:1:1:1:1:1]:80; done
    

Notez le texte renvoyé par la commande curl. Le nom de la VM de backend qui génère la réponse est affiché dans ce texte, par exemple : Page served from: VM_NAME.

La réponse de la commande curl est alternée de manière aléatoire entre les instances de backend. En cas d'échec au début de la phase de réponse, il vous faudra probablement patienter environ 30 secondes pour que la configuration soit entièrement chargée et que vos instances soient identifiées comme saines avant de réessayer :

Options de configuration supplémentaires

Cette section développe l'exemple de configuration et fournit des instructions pour personnaliser davantage votre équilibreur de charge réseau passthrough externe. Ces tâches sont facultatives. Vous pouvez les exécuter dans n'importe quel ordre.

Configurer l'affinité de session

L'exemple de configuration crée un service de backend avec l'affinité de session désactivée (valeur définie sur NONE). Cette section explique comment mettre à jour le service de backend afin de modifier le paramètre d'affinité de session de l'équilibreur de charge.

Pour découvrir les types d'affinité de session compatibles, consultez la section Options d'affinité de session.

Console

  1. Dans Google Cloud Console, accédez à la page Équilibrage de charge.

    Accéder à la page "Équilibrage de charge"

  2. Dans l'onglet Équilibreurs de charge, cliquez sur le nom du service de backend, puis sur Modifier.

  3. Sur la page Modifier l'équilibreur de charge réseau passthrough externe, cliquez sur Configuration du backend.

  4. Sélectionnez une option dans la liste Affinité de session.

  5. Cliquez sur Update (Mettre à jour).

gcloud

Utilisez la commande gcloud suivante pour mettre à jour l'affinité de session pour le service de backend :

gcloud compute backend-services update BACKEND_SERVICE \
    --region=REGION \
    --session-affinity=SESSION_AFFINITY_OPTION

Remplacez les espaces réservés par des valeurs valides :

  • BACKEND_SERVICE : le service de backend que vous mettez à jour
  • SESSION_AFFINITY_OPTION : l'option d'affinité de session que vous souhaitez définir

    Pour obtenir la liste des valeurs acceptées pour un équilibreur de charge réseau passthrough externe, consultez la page Options d'affinité de session.

Configurer une règle de suivi des connexions

L'exemple de configuration crée un service de backend avec les paramètres par défaut de sa règle de suivi des connexions. Cette section explique comment mettre à jour le service de backend afin de modifier la règle de suivi des connexions par défaut de l'équilibreur de charge.

Une règle de suivi des connexions inclut les paramètres suivants :

.

gcloud

Exécutez la commande gcloud compute backend-services suivante pour mettre à jour la règle de suivi des connexions pour le service de backend :

gcloud compute backend-services update BACKEND_SERVICE \
    --region=REGION \
    --tracking-mode=TRACKING_MODE \
    --connection-persistence-on-unhealthy-backends=CONNECTION_PERSISTENCE_BEHAVIOR

Remplacez les espaces réservés par des valeurs valides :

  • BACKEND_SERVICE : le service de backend que vous mettez à jour
  • TRACKING_MODE : le mode de suivi des connexions à utiliser pour les paquets entrants. Pour obtenir la liste des valeurs acceptées, consultez la section Mode de suivi.
  • CONNECTION_PERSISTENCE_BEHAVIOR : comportement de persistance de connexion lorsque les backends ne sont pas opérationnels. Pour obtenir la liste des valeurs acceptées, consultez la section Persistance des connexions sur les backends non opérationnels.

Configurer l'orientation du trafic

Cette section explique comment mettre à jour la configuration du frontend d'un équilibreur de charge pour configurer l'orientation du trafic basé sur l'adresse IP source. Pour en savoir plus sur le fonctionnement de l'orientation du trafic, consultez la page Orientation du trafic.

Dans ces instructions, nous partons du principe que vous avez déjà créé la règle de transfert parente de base. Cet exemple crée une deuxième règle de transfert, qui est la règle de transfert d'orientation, avec la même adresse IP, le même protocole IP et les mêmes ports que la règle parente. Cette règle de transfert d'orientation est configurée avec des plages d'adresses IP sources afin que vous puissiez personnaliser la manière dont les paquets provenant de ces plages d'adresses IP sources sont transférés.

gcloud

Utilisez la commande suivante pour créer une règle de transfert d'orientation pointant vers un service de backend :

gcloud compute forwarding-rules create STEERING_FORWARDING_RULE_BS \
    --load-balancing-scheme=EXTERNAL \
    --backend-service=BACKEND_SERVICE \
    --address=LOAD_BALANCER_VIP \
    --ip-protocol=IP_PROTOCOL \
    --ports=PORTS \
    --region=REGION \
    --source-ip-ranges=SOURCE_IP_ADDRESS_RANGES

Exécutez la commande suivante pour créer une règle de transfert d'orientation pointant vers une instance cible :

gcloud compute forwarding-rules create STEERING_FORWARDING_RULE_TI \
    --load-balancing-scheme=EXTERNAL \
    --target-instance=TARGET_INSTANCE \
    --address=LOAD_BALANCER_VIP \
    --ip-protocol=IP_PROTOCOL \
    --ports=PORTS \
    --region=REGION \
    --source-ip-ranges=SOURCE_IP_ADDRESS_RANGES

Remplacez les espaces réservés par des valeurs valides :

  • FORWARDING_RULE : nom de la règle de transfert d'orientation que vous créez.
  • BACKEND_SERVICE ou TARGET_INSTANCE : nom du service de backend ou de l'instance cible vers laquelle cette règle de transfert d'orientation envoie du trafic. Même si la règle de transfert parente pointe vers un service de backend, vous pouvez créer des règles de transfert d'orientation pointant vers des instances cibles.
  • LOAD_BALANCER_VIP, IP_PROTOCOL, PORTS : respectivement l'adresse IP, le protocole IP et les ports pour la règle de transfert d'orientation que vous créez. Ces paramètres doivent correspondre à une règle de transfert de base préexistante.
  • REGION : région de la règle de transfert que vous créez.
  • SOURCE_IP_ADDRESS_RANGES : liste d'adresses IP ou de plages d'adresses IP séparées par des virgules. Cette règle de transfert ne transfère du trafic que lorsque l'adresse IP source du paquet entrant appartient à l'une des plages d'adresses IP définies ici.

Utilisez la commande suivante pour supprimer une règle de transfert d'orientation. Vous devez supprimer toutes les règles de transfert d'orientation utilisées par un équilibreur de charge avant de pouvoir supprimer l'équilibreur de charge à proprement parler.

gcloud compute forwarding-rules delete STEERING_FORWARDING_RULE \
    --region=REGION

Configurer la règle de basculement

Pour configurer la règle de basculement, consultez la page Configurer le basculement pour les équilibreurs de charge réseau passthrough externes.

Configurer l'équilibrage de charge pondéré

Pour configurer l'équilibrage de charge pondéré, consultez la page Configurer l'équilibrage de charge pondéré.

Créer une règle de transfert IPv6 avec BYOIP

L'équilibreur de charge créé lors des étapes précédentes a été configuré avec des règles de transfert avec IP version comme IPv4 ou IPv6. Cette section fournit des instructions pour créer une règle de transfert IPv6 avec des adresses BYOIP (Bring Your Own IP).

Les adresses BYOIP (Bring your own IP) vous permettent de provisionner et d'utiliser vos propres adresses IPv6 publiques pour les ressources Google Cloud. Pour en savoir plus, consultez la section Utiliser vos propres adresses IP.

Avant de commencer à configurer une règle de transfert IPv6 avec des adresses BYOIP, vous devez suivre les étapes suivantes:

  1. Créer un préfixe IPv6 annoncé publiquement
  2. Créer des préfixes délégués publics
  3. Créer des sous-préfixes IPv6
  4. Annoncer le préfixe

Pour créer une règle de transfert, procédez comme suit:

Console

  1. Dans la console Google Cloud, accédez à la page Équilibrage de charge.

    Accédez à la page "Équilibrage de charge".

  2. Cliquez sur le nom de l'équilibreur de charge que vous souhaitez modifier.
  3. Cliquez sur Modifier ().
  4. Cliquez sur Frontend configuration (Configuration du frontend).
  5. Cliquez sur Ajouter une adresse IP et un port frontend.
  6. Dans la section Nouveaux IP et port frontend, spécifiez les éléments suivants:
    1. Le protocole est TCP.
    2. Dans le champ Version IP, sélectionnez IPv6.
    3. Dans le champ Source de la plage IPv6, sélectionnez BYOIP.
    4. Dans la liste Collection d'adresses IP, sélectionnez un sous-préfixe créé aux étapes précédentes avec l'option de règle de transfert activée.
    5. Dans le champ Plage IPv6, saisissez la plage d'adresses IPv6. La plage d'adresses IPv6 doit respecter les spécifications des sous-préfixes IPv6.
    6. Dans le champ Ports, saisissez un numéro de port.
    7. Cliquez sur OK.
  7. Cliquez sur Mettre à jour.

Google Cloud CLI

Créez la règle de transfert à l'aide de la commande gcloud compute forwarding-rules create:

gcloud compute forwarding-rules create FWD_RULE_NAME \
    --load-balancing-scheme EXTERNAL \
    --ip-protocol PROTOCOL \
    --ports ALL \
    --ip-version IPV6 \
    --region REGION_A \
    --address IPV6_CIDR_RANGE  \
    --backend-service BACKEND_SERVICE \
    --ip-collection PDP_NAME

Remplacez les éléments suivants :

  • FWD_RULE_NAME : nom de la règle de transfert.
  • PROTOCOL: protocole IP de la règle de transfert. La valeur par défaut est TCP. Le protocole IP peut être TCP, UDP ou L3_DEFAULT.
  • REGION_A: région de la règle de transfert.
  • IPV6_CIDR_RANGE: plage d'adresses IPv6 utilisée par la règle de transfert. La plage d'adresses IPv6 doit respecter les spécifications des sous-préfixes IPv6.
  • BACKEND_SERVICE: nom du service de backend
  • PDP_NAME: nom du préfixe délégué public. Le PDP doit être un sous-préfixe en mode EXTERNAL_IPV6_FORWARDING_RULE_CREATION.

Étape suivante