L'équilibreur de charge proxy interne régional est un équilibreur de charge régional de couche 4 basé sur un proxy qui vous permet d'exécuter et d'effectuer le scaling de votre trafic de service TCP derrière une adresse IP interne accessible uniquement aux clients situés dans le même réseau VPC ou aux clients connectés à votre réseau VPC.
Ce guide contient des instructions pour configurer un équilibreur de charge réseau interne proxy régional avec un backend de groupe de points de terminaison du réseau (NEG) zonal. Avant de commencer :
- Consultez la présentation de l'équilibreur de charge réseau proxy interne régional.
- Consultez la présentation des NEG zonaux.
Présentation
Dans cet exemple, nous allons utiliser l'équilibreur de charge pour répartir le trafic TCP entre les VM de backend de deux NEG zonaux de la région REGION_A
. Pour les besoins de cet exemple, le service est un ensemble de serveurs Apache configurés pour répondre sur le port 80
.
Dans cet exemple, vous configurez les éléments suivants :
L'équilibreur de charge réseau proxy interne régional est un équilibreur de charge régional. Tous les composants de l'équilibreur de charge (groupes d'instances backend, service de backend, proxy cible et règle de transfert) doivent se trouver dans la même région.
Autorisations
Pour suivre ce guide, vous devez savoir comment créer des instances et modifier un réseau dans un projet. Vous devez être propriétaire ou éditeur du projet, ou disposer de tous les rôles IAM Compute Engine suivants :
Tâche | Rôle requis |
---|---|
Créer des réseaux, des sous-réseaux et des composants de l'équilibreur de charge | Administrateur réseau |
Ajouter et supprimer des règles de pare-feu | Administrateur de sécurité |
Créer des instances | Administrateur d'instances Compute |
Pour en savoir plus, consultez les guides suivants :
- Access control (Contrôle des accès)
- Conditions IAM
Configurer le réseau et les sous-réseaux
Vous avez besoin d'un réseau VPC avec deux sous-réseaux : un pour les backends de l'équilibreur de charge et l'autre pour les proxys de l'équilibreur de charge. Les équilibreurs de charge réseau proxy internes régionaux sont régionaux. Le trafic au sein du réseau VPC est acheminé vers l'équilibreur de charge si la source du trafic se trouve dans un sous-réseau dans la même région que l'équilibreur de charge.
Cet exemple utilise le réseau VPC, la région et les sous-réseaux suivants :
Réseau : le réseau est un réseau VPC en mode personnalisé nommé
lb-network
.Sous-réseau pour les backends : un sous-réseau nommé
backend-subnet
dans la régionREGION_A
utilise10.1.2.0/24
pour sa plage d'adresses IP principale.Sous-réseau pour les proxys : un sous-réseau nommé
proxy-only-subnet
dans la régionREGION_A
utilise10.129.0.0/23
pour sa plage d'adresses IP principale.
Créer le réseau et le sous-réseau pour les backends
Console
Dans Google Cloud Console, accédez à la page Réseaux VPC.
Cliquez sur Créer un réseau VPC.
Dans le champ Nom, saisissez
lb-network
.Dans la section Sous-réseaux :
- Définissez Mode de création du sous-réseau sur Personnalisé.
- Dans la section Nouveau sous-réseau, saisissez les informations suivantes :
- Nom :
backend-subnet
- Région :
REGION_A
- Plage d'adresses IP :
10.1.2.0/24
- Nom :
- Cliquez sur OK.
Cliquez sur Créer.
gcloud
Créez le réseau VPC personnalisé à l'aide de la commande
gcloud compute networks create
:gcloud compute networks create lb-network --subnet-mode=custom
Créez un sous-réseau dans le réseau
lb-network
de la régionREGION_A
à l'aide de la commandegcloud compute networks subnets create
:gcloud compute networks subnets create backend-subnet \ --network=lb-network \ --range=10.1.2.0/24 \ --region=REGION_A
Créer le sous-réseau proxy réservé
Un sous-réseau proxy réservé fournit un ensemble d'adresses IP utilisées par Google pour exécuter des proxys Envoy en votre nom. Les proxys interrompent les connexions du client et créent de nouvelles connexions vers les backends.
Ce sous-réseau proxy réservé est utilisé par tous les équilibreurs de charge basés sur Envoy dans la région REGION_A
du réseau VPC lb-network
.
Console
Si vous utilisez la console Google Cloud, vous pouvez créer le sous-réseau proxy réservé ultérieurement sur la page Équilibrage de charge.
Si vous souhaitez créer le sous-réseau proxy réservé maintenant, procédez comme suit :
Dans Google Cloud Console, accédez à la page Réseaux VPC.
Cliquez sur le nom du réseau VPC partagé :
lb-network
.Cliquez sur Ajouter un sous-réseau.
Dans le champ Nom, saisissez
proxy-only-subnet
.Pour la région, sélectionnez
REGION_A
.Définissez le champ Objectif sur Proxy géré régional.
Pour la plage d'adresses IP, saisissez
10.129.0.0/23
.Cliquez sur Ajouter.
gcloud
Créez le sous-réseau proxy réservé à l'aide de la commande gcloud compute networks subnets
create
.
gcloud compute networks subnets create proxy-only-subnet \ --purpose=REGIONAL_MANAGED_PROXY \ --role=ACTIVE \ --region=REGION_A \ --network=lb-network \ --range=10.129.0.0/23
Créer des règles de pare-feu
Dans cet exemple, vous devez créer les règles de pare-feu suivantes :
fw-allow-health-check
: règle d'entrée, applicable aux instances Google Cloud soumises à l'équilibrage de charge, qui autorise le trafic provenant de l'équilibreur de charge et des systèmes de vérification d'état de Google Cloud (130.211.0.0/22
et35.191.0.0/16
). Cet exemple utilise le tag cibleallow-health-check
pour identifier les VM de backend auxquelles il doit s'appliquer.fw-allow-ssh
: règle d'entrée qui autorise la connectivité SSH entrante sur le port TCP 22 à partir de n'importe quelle adresse. Vous pouvez choisir une plage d'adresses IP sources plus restrictive pour cette règle. Par exemple, vous pouvez spécifier uniquement les plages d'adresses IP du système à partir duquel vous souhaitez lancer des sessions SSH. Cet exemple utilise le tag cibleallow-ssh
pour identifier les VM auxquelles la règle doit s'appliquer.fw-allow-proxy-only-subnet
: Créez une règle de pare-feu autorisant le trafic entrant pour le sous-réseau proxy réservé afin de permettre à l'équilibreur de charge de communiquer avec les instances backend sur le port TCP80
: Cet exemple utilise le tag cibleallow-proxy-only-subnet
pour identifier les VM de backend auxquelles la règle doit s'appliquer.
Console
Dans la console Google Cloud, accédez à la page Règles d'administration.
Cliquez sur Créer une règle de pare-feu :
- Saisissez le nom
fw-allow-health-check
. - Sous Réseau, sélectionnez
lb-network
. - Sous Cibles, sélectionnez Tags cibles spécifiés.
- Dans le champ Tags cibles, saisissez
allow-health-check
. - Définissez Filtre source sur Plages IPv4.
- Définissez Plages IPv4 sources sur
130.211.0.0/22
et35.191.0.0/16
. - Dans Protocoles et ports, sélectionnez Protocoles et ports spécifiés.
- Cochez la case TCP, puis saisissez
80
pour les numéros de port. - Cliquez sur Créer.
- Saisissez le nom
Cliquez de nouveau sur Créer une règle de pare-feu pour créer la règle autorisant les connexions SSH entrantes :
- Nom :
fw-allow-ssh
- Réseau :
lb-network
- Priorité :
1000
- Sens du trafic : entrée
- Action en cas de correspondance : autoriser
- Cibles : tags cibles spécifiés
- Tags cibles :
allow-ssh
- Filtre source : Plages IPv4
- Plages IPv4 sources :
0.0.0.0/0
- Protocoles et ports : choisissez Protocoles et ports spécifiés, puis saisissez
tcp:22
.
- Nom :
Cliquez sur Créer.
Cliquez de nouveau sur Créer une règle de pare-feu pour créer la règle autorisant les connexions entrantes du sous-réseau proxy réservé aux backends Google Cloud :
- Nom :
fw-allow-proxy-only-subnet
- Réseau :
lb-network
- Priorité :
1000
- Sens du trafic : entrée
- Action en cas de correspondance : autoriser
- Cibles : tags cibles spécifiés
- Tags cibles :
allow-proxy-only-subnet
- Filtre source : Plages IPv4
- Plages IPv4 sources :
10.129.0.0/23
- Protocoles et ports : choisissez Protocoles et ports spécifiés, puis saisissez
tcp:80
.
- Nom :
Cliquez sur Create (Créer).
gcloud
Créez la règle
fw-allow-health-check
pour autoriser les vérifications d'état Google Cloud à atteindre les instances backend sur le port TCP80
:gcloud compute firewall-rules create fw-allow-health-check \ --network=lb-network \ --action=allow \ --direction=ingress \ --target-tags=allow-health-check \ --source-ranges=130.211.0.0/22,35.191.0.0/16 \ --rules=tcp:80
Créez la règle de pare-feu
fw-allow-ssh
pour autoriser la connectivité SSH aux VM avec le tag réseauallow-ssh
. Lorsque vous omettezsource-ranges
, Google Cloud interprète la règle comme désignant n'importe quelle source.gcloud compute firewall-rules create fw-allow-ssh \ --network=lb-network \ --action=allow \ --direction=ingress \ --target-tags=allow-ssh \ --rules=tcp:22
Créez une règle de pare-feu autorisant le trafic entrant pour le sous-réseau proxy réservé afin de permettre à l'équilibreur de charge de communiquer avec les instances backend sur le port TCP
80
:gcloud compute firewall-rules create fw-allow-proxy-only-subnet \ --network=lb-network \ --action=allow \ --direction=ingress \ --target-tags=allow-proxy-only-subnet \ --source-ranges=10.129.0.0/23 \ --rules=tcp:80
Réserver l'adresse IP de l'équilibreur de charge
Pour réserver une adresse IP interne statique pour votre équilibreur de charge, consultez la section Réserver une nouvelle adresse IPv4 ou IPv6 interne statique.
Configurer le NEG zonal
Configurez un NEG zonal (avec des points de terminaison de type GCE_VM_IP_PORT
) dans la région REGION_A
. Commencez par créer les VM. Créez ensuite un NEG zonal et ajoutez-y les points de terminaison du réseau des VM.
Créer des VM
Console
Dans la console Google Cloud, accédez à la page Instances de VM.
Cliquez sur Créer une instance.
Dans le champ Nom, spécifiez
vm-a1
.Pour la région, sélectionnez
REGION_A
.Pour la zone, consultez la page
ZONE_A1
.Dans la section Disque de démarrage, assurez-vous que les options sélectionnées sont Debian pour le système d'exploitation et 10 (Buster) pour la version. Si nécessaire, cliquez sur Sélectionner pour modifier l'image.
Cliquez sur Options avancées.
Cliquez sur Mise en réseau et configurez les champs suivants :
- Pour Tags réseau, saisissez
allow-ssh
,allow-health-check
etallow-proxy-only-subnet
. - Pour Interfaces réseau, sélectionnez l'option suivante :
- Réseau :
lb-network
- Sous-réseau :
backend-subnet
- Réseau :
- Pour Tags réseau, saisissez
Cliquez sur Gestion. Saisissez le script suivant dans le champ Script de démarrage.
#! /bin/bash apt-get update apt-get install apache2 -y a2ensite default-ssl a2enmod ssl vm_hostname="$(curl -H "Metadata-Flavor:Google" \ http://metadata.google.internal/computeMetadata/v1/instance/name)" echo "Page served from: $vm_hostname" | \ tee /var/www/html/index.html systemctl restart apache2
Cliquez sur Créer.
Répétez les étapes ci-dessous pour créer trois VM supplémentaires, en utilisant les combinaisons de nom et de zone suivantes :
- Nom :
vm-a2
, zone :ZONE_A1
- Nom :
vm-c1
, zone :ZONE_A2
- Nom :
vm-c2
, zone :ZONE_A2
- Nom :
gcloud
Créez les VM en exécutant la commande suivante deux fois, en utilisant les combinaisons suivantes pour VM_NAME et ZONE. Le contenu du script est identique pour les deux VM.
- VM_NAME :
vm-a1
et ZONE :ZONE_A1
- VM_NAME :
vm-a2
et ZONE :ZONE_A1
- VM_NAME :
vm-c1
et ZONE :ZONE_A2
VM_NAME :
vm-c2
et ZONE :ZONE_A2
gcloud compute instances create VM_NAME \ --zone=ZONE \ --image-family=debian-10 \ --image-project=debian-cloud \ --tags=allow-ssh,allow-health-check,allow-proxy-only-subnet \ --subnet=backend-subnet \ --metadata=startup-script='#! /bin/bash apt-get update apt-get install apache2 -y a2ensite default-ssl a2enmod ssl vm_hostname="$(curl -H "Metadata-Flavor:Google" \ http://metadata.google.internal/computeMetadata/v1/instance/name)" echo "Page served from: $vm_hostname" | \ tee /var/www/html/index.html systemctl restart apache2'
Créer les NEG zonaux
Console
Pour créer un groupe de points de terminaison de réseau zonal :
Dans la console Google Cloud, accédez à la page Groupes de points de terminaison du réseau.
Accéder à la page Groupes de points de terminaison du réseau
Cliquez sur Créer un groupe de points de terminaison du réseau.
Dans le champ Nom, saisissez
zonal-neg-a
.Pour le type de groupe de points de terminaison du réseau, sélectionnez Groupe de points de terminaison du réseau (zonal).
Pour Réseau, sélectionnez
lb-network
.Pour Sous-réseau, sélectionnez
backend-subnet
.Pour Zone, sélectionnez
ZONE_A1
.Saisissez le port par défaut :
80
.Cliquez sur Créer.
Répétez toutes les étapes de cette section pour créer un deuxième NEG zonal avec les modifications suivantes dans les paramètres :
- Nom :
zonal-neg-c
- Zone :
ZONE_A2
- Nom :
Ajoutez des points de terminaison aux NEG zonaux :
Dans la console Google Cloud, accédez à la page Groupes de points de terminaison du réseau.
Accéder à la page Groupes de points de terminaison du réseau
Cliquez sur le nom du groupe de points de terminaison du réseau créé à l'étape précédente (par exemple,
zonal-neg-a
). La page Détails du groupe de points de terminaison du réseau s'affiche.Dans la section Points de terminaison du réseau de ce groupe, cliquez sur Ajouter un point de terminaison du réseau. La page Ajouter un point de terminaison du réseau s'affiche.
Sélectionnez une instance de VM (par exemple,
vm-a1
). Dans la section Interface réseau, le nom, la zone et le sous-réseau de la VM s'affichent.- Saisissez l'adresse IP du nouveau point de terminaison du réseau. Vous pouvez cliquer sur Vérifier les adresses IP principales et la plage d'adresses IP d'alias dans nic0 pour obtenir l'adresse IP.
- Pour le type de port, sélectionnez Par défaut. Le point de terminaison utilise le port par défaut
80
pour tous les points de terminaison du groupe de points de terminaison du réseau. Cela est suffisant pour notre exemple, car le serveur Apache diffuse les requêtes au port80
. - Cliquez sur Créer.
Cliquez à nouveau sur Ajouter un point de terminaison du réseau. Sélectionnez la deuxième instance de VM
vm-a2
, puis répétez ces étapes pour ajouter ses points de terminaison àzonal-neg-a
.Répétez toutes les étapes de cette section pour ajouter des points de terminaison de
vm-c1
etvm-c2
àzonal-neg-c
.
gcloud
Créez un NEG zonal dans la zone
ZONE_A1
avec des points de terminaisonGCE_VM_IP_PORT
.gcloud compute network-endpoint-groups create zonal-neg-a \ --network-endpoint-type=GCE_VM_IP_PORT \ --zone=ZONE_A1 \ --network=lb-network \ --subnet=backend-subnet
Vous pouvez spécifier le paramètre
--default-port
lors de la création du NEG ou spécifier un numéro de port pour chaque point de terminaison, comme indiqué à l'étape suivante.Ajoutez des points de terminaison au NEG zonal.
gcloud compute network-endpoint-groups update zonal-neg-a \ --zone=ZONE_A1 \ --add-endpoint='instance=vm-a1,port=80' \ --add-endpoint='instance=vm-a2,port=80'
Créez un NEG zonal dans la zone
ZONE_A2
avec des points de terminaisonGCE_VM_IP_PORT
.gcloud compute network-endpoint-groups create zonal-neg-c \ --network-endpoint-type=GCE_VM_IP_PORT \ --zone=ZONE_A2 \ --network=lb-network \ --subnet=backend-subnet
Vous pouvez spécifier le paramètre
--default-port
lors de la création du NEG ou spécifier un numéro de port pour chaque point de terminaison, comme indiqué à l'étape suivante.Ajoutez des points de terminaison au NEG zonal.
gcloud compute network-endpoint-groups update zonal-neg-c \ --zone=ZONE_A2 \ --add-endpoint='instance=vm-c1,port=80' \ --add-endpoint='instance=vm-c2,port=80'
Configurer l'équilibreur de charge
Console
Démarrer la configuration
Dans Google Cloud Console, accédez à la page Équilibrage de charge.
- Cliquez sur Créer un équilibreur de charge.
- Sous Type d'équilibreur de charge, sélectionnez Équilibreur de charge réseau (TCP/UDP/SSL), puis cliquez sur Suivant.
- Pour Proxy ou passthrough, sélectionnez Équilibreur de charge proxy, puis cliquez sur Suivant.
- Pour Public ou interne, sélectionnez Interne, puis cliquez sur Suivant.
- Pour Déploiement interrégional ou dans une seule région, sélectionnez Recommandé pour les charges de travail régionales, puis cliquez sur Suivant.
- Cliquez sur Configurer.
Configuration de base
- Dans le champ Nom, saisissez
my-int-tcp-lb
. - Pour Région, sélectionnez
REGION_A
. - Pour Réseau, sélectionnez
lb-network
.
Réserver un sous-réseau proxy réservé
Pour réserver un sous-réseau proxy réservé :
- Cliquez sur Réserver un sous-réseau.
- Dans le champ Nom, saisissez
proxy-only-subnet
. - Dans Plage d'adresses IP, saisissez
10.129.0.0/23
. - Cliquez sur Ajouter.
Configuration du backend
- Cliquez sur Configuration du backend.
- Pour le type de backend, sélectionnez Groupe de points de terminaison du réseau zonal.
- Dans le champ Protocole, sélectionnez TCP.
- Configurez le premier backend :
- Sous Nouveau backend, sélectionnez un NEG zonal
zonal-neg-a
. - Conservez les valeurs par défaut restantes, puis cliquez sur OK.
- Sous Nouveau backend, sélectionnez un NEG zonal
- Configurez le deuxième backend :
- Cliquez sur Ajouter un backend.
- Sous Nouveau backend, sélectionnez le groupe d'instances
zonal-neg-c
. - Conservez les valeurs par défaut restantes, puis cliquez sur OK.
- Configurez la vérification d'état :
- Sous Vérification d'état, sélectionnez Créer une vérification d'état.
- Définissez le paramètre Nom de la vérification d'état sur
tcp-health-check
. - Dans le champ Protocole, sélectionnez TCP.
- Dans la section Port, saisissez
80
.
- Conservez les valeurs par défaut restantes, puis cliquez sur Enregistrer.
- Dans la console Google Cloud, vérifiez qu'une coche apparaît à côté de Configuration du backend. Si ce n'est pas le cas, vérifiez que vous avez bien suivi la procédure ci-dessous dans son intégralité.
Configuration de l'interface
- Cliquez sur Configuration de l'interface.
- Dans le champ Nom, saisissez
int-tcp-forwarding-rule
. - Pour Sous-réseau, sélectionnez backend-subnet.
- Pour Adresse IP, sélectionnez int-tcp-ip-address.
- Pour Numéro de port, saisissez
9090
. La règle de transfert transfère les paquets avec un port de destination correspondant. - Dans cet exemple, n'activez pas le protocole de proxy, car il ne fonctionne pas avec le logiciel Apache HTTP Server. Pour en savoir plus, consultez la section Protocole de proxy.
- Cliquez sur OK.
- Dans Google Cloud Console, vérifiez qu'une coche apparaît à côté de Configuration du frontend. Dans le cas contraire, vérifiez que vous avez bien suivi la procédure ci-dessus dans son intégralité.
Vérifier et finaliser
- Cliquez sur Vérification et finalisation.
- Vérifiez vos paramètres.
- Cliquez sur Create (Créer).
gcloud
Créez une vérification d'état régionale pour les backends.
gcloud compute health-checks create tcp tcp-health-check \ --region=REGION_A \ --use-serving-port
Créez un service de backend.
gcloud compute backend-services create internal-tcp-proxy-bs \ --load-balancing-scheme=INTERNAL_MANAGED \ --protocol=TCP \ --region=REGION_A \ --health-checks=tcp-health-check \ --health-checks-region=REGION_A
Ajoutez le NEG zonal dans la zone
ZONE_A1
au service de backend.gcloud compute backend-services add-backend internal-tcp-proxy-bs \ --network-endpoint-group=zonal-neg-a \ --network-endpoint-group-zone=ZONE_A1 \ --balancing-mode=CONNECTION \ --max-connections-per-endpoint=50 \ --region=REGION_A
Ajoutez le NEG zonal dans la zone
ZONE_A2
au service de backend.gcloud compute backend-services add-backend internal-tcp-proxy-bs \ --network-endpoint-group=zonal-neg-c \ --network-endpoint-group-zone=ZONE_A2 \ --balancing-mode=CONNECTION \ --max-connections-per-endpoint=50 \ --region=REGION_A
Créez le proxy TCP cible.
gcloud compute target-tcp-proxies create int-tcp-target-proxy \ --backend-service=internal-tcp-proxy-bs \ --region=REGION_A
Créez la règle de transfert. Pour
--ports
, spécifiez un seul numéro de port compris entre 1 et 65 535. Cet exemple utilise le port9090
. La règle de transfert transfère les paquets avec un port de destination correspondant.gcloud compute forwarding-rules create int-tcp-forwarding-rule \ --load-balancing-scheme=INTERNAL_MANAGED \ --network=lb-network \ --subnet=backend-subnet \ --address=int-tcp-ip-address \ --ports=9090 \ --region=REGION_A \ --target-tcp-proxy=int-tcp-target-proxy \ --target-tcp-proxy-region=REGION_A
Tester l'équilibreur de charge
Pour tester l'équilibreur de charge, créez une VM cliente dans la même région que l'équilibreur de charge. Envoyez ensuite du trafic depuis le client vers l'équilibreur de charge.
Créer une VM cliente
Créez une VM cliente (client-vm
) dans la même région que l'équilibreur de charge.
Console
Dans la console Google Cloud, accédez à la page Instances de VM.
Cliquez sur Créer une instance.
Pour Nom, définissez
client-vm
.Définissez le champ Zone sur
ZONE_A1
.Cliquez sur Options avancées.
Cliquez sur Mise en réseau et configurez les champs suivants :
- Pour Tags réseau, saisissez
allow-ssh
. - Pour Interfaces réseau, sélectionnez l'option suivante :
- Réseau :
lb-network
- Sous-réseau :
backend-subnet
- Réseau :
- Pour Tags réseau, saisissez
Cliquez sur Créer.
gcloud
La VM cliente doit se trouver dans le même réseau VPC et dans la même région que l'équilibreur de charge. Elle ne doit pas nécessairement se trouver dans le même sous-réseau ou la même zone. Le client utilise le même sous-réseau que les VM de backend.
gcloud compute instances create client-vm \ --zone=ZONE_A1 \ --image-family=debian-10 \ --image-project=debian-cloud \ --tags=allow-ssh \ --subnet=backend-subnet
Envoyer du trafic vers l'équilibreur de charge
Maintenant que vous avez configuré votre équilibreur de charge, vous pouvez commencer à envoyer du trafic vers son adresse IP.
Utilisez SSH pour vous connecter à l'instance cliente.
gcloud compute ssh client-vm \ --zone=ZONE_A1
Vérifiez que l'équilibreur de charge diffuse les noms d'hôte de backend comme prévu.
Utilisez la commande
compute addresses describe
pour afficher l'adresse IP de l'équilibreur de charge :gcloud compute addresses describe int-tcp-ip-address \ --region=REGION_A
Notez l'adresse IP.
Envoyez du trafic vers l'équilibreur de charge. Remplacez IP_ADDRESS par l'adresse IP de l'équilibreur de charge.
curl IP_ADDRESS:9090
Étapes suivantes
- Pour savoir comment fonctionne un équilibreur de charge réseau proxy interne, consultez la page Présentation de l'équilibreur de charge réseau proxy interne régional.
- Pour configurer la surveillance de votre équilibreur de charge réseau proxy interne régional, consultez la page Utiliser la surveillance.
- Nettoyez la configuration de l'équilibreur de charge.