Présentation de Cloud Load Balancing

Un équilibreur de charge répartit le trafic des utilisateurs entre plusieurs instances de vos applications. En répartissant la charge, l'équilibrage de charge réduit le risque que vos applications rencontrent des problèmes de performances. Cloud Load Balancing de Google est développé sur des technologies fiables et très performantes, telles que Maglev, Andromeda, Google Front End et Envoy, qui sont les mêmes que les technologies des produits Google.

Cloud Load Balancing propose un portefeuille complet d'équilibreurs de charge réseau et d'application. Utilisez nos équilibreurs de charge proxy mondiaux pour répartir des millions de requêtes par seconde entre les backends de plusieurs régions avec notre parc Google Front End, dans plus de 80 emplacements distincts à travers le monde, le tout avec une seule adresse IP Anycast. Mettez en œuvre un contrôle juridictionnel renforcé avec nos équilibreurs de charge proxy régionaux, en maintenant vos backends et vos proxys dans la région de votre choix sans vous soucier du déchargement TLS/SSL. Utilisez nos équilibreurs de charge passthrough pour acheminer rapidement plusieurs protocoles vers des backends avec les hautes performances de DSR (retour serveur direct).

Présentation de Cloud Load Balancing
Présentation de Cloud Load Balancing (cliquez pour agrandir).

Principales caractéristiques de Cloud Load Balancing

Cloud Load Balancing propose les fonctionnalités d'équilibreur de charge suivantes :

  • Adresse IP Anycast unique. Avec Cloud Load Balancing, une seule adresse IP anycast est l'interface de toutes vos instances backend dans différentes régions du monde. Résultat : vous bénéficiez d'un équilibrage de charge interrégional avec un basculement automatique multirégional qui transfère le trafic vers les backends de basculement si vos backends principaux ne sont plus opérationnels. Cloud Load Balancing réagit instantanément aux changements liés aux utilisateurs, au trafic, au réseau, à l'état du backend et à d'autres conditions de ce type.

  • Autoscaling fluide. Cloud Load Balancing assure l'évolutivité de vos applications à mesure que le nombre d'utilisateurs et le volume du trafic augmentent. Par exemple, il peut gérer facilement d'importants pics instantanés et imprévus en redirigeant le trafic vers d'autres régions du monde moins sollicitées. L'autoscaling ne nécessite aucun préchauffage. Vous pouvez ainsi passer d'un trafic nul à un trafic maximal en quelques secondes.

  • Équilibrage de charge défini par logiciel. Cloud Load Balancing est un service défini par logiciel, qui est entièrement géré et distribué pour tout votre trafic. Il ne s'agit pas d'une solution basée sur les instances ou les appareils. Par conséquent, vous n'êtes pas prisonnier d'une infrastructure d'équilibrage de charge. Vous pouvez également oublier les problèmes de haute disponibilité, d'évolutivité et de gestion liés à l'équilibrage de charge basé sur les instances.

  • Équilibrage de charge de couche 4 et de couche 7. Utilisez l'équilibrage de charge basé sur la couche 4 pour diriger le trafic en fonction des données des protocoles de couche réseau et de transport tels que TCP, UDP, ESP, GRE, ICMP et ICMPv6. Utilisez l'équilibrage de charge basé sur la couche 7 pour ajouter des décisions de routage des requêtes basées sur des attributs, tels que l'en-tête HTTP et l'identifiant de ressource uniforme.

  • Équilibrage de charge externe et interne. Indique si l'équilibreur de charge peut être utilisé pour l'accès externe ou interne. Un équilibreur de charge externe accepte le trafic provenant d'Internet, tandis qu'un équilibreur de charge interne n'accepte que le trafic RFC 1918. Vous pouvez utiliser l'équilibrage de charge externe lorsque vos utilisateurs accèdent à vos applications depuis Internet. Vous pouvez utiliser l'équilibrage de charge interne lorsque vos clients se trouvent dans Google Cloud. Pour en savoir plus, consultez la section Équilibrage de charge externe par rapport à l'équilibrage de charge interne.

  • Équilibrage de charge global et régional. Définit le champ d'application de l'équilibreur de charge. Un équilibreur de charge global est compatible avec les backends de plusieurs régions, tandis qu'un équilibreur de charge régional est compatible avec les backends d'une seule région. Même si l'adresse IP d'un équilibreur de charge régional se trouve dans une région, il est accessible dans le monde entier. Vous pouvez distribuer vos backends dans une seule ou plusieurs régions pour mettre fin aux connexions proches de vos utilisateurs et répondre à vos exigences de haute disponibilité. Pour en savoir plus, consultez la section Équilibrage de charge global ou régional.

  • Routage du trafic dans les Niveau Premium et Standard. Les services d'équilibrage de charge de Google Cloud sont disponibles en différentes versions en fonction du niveau de service réseau que vous choisissez, à savoir le niveau Premium ou Standard, le premier étant plus cher que le second. Le niveau Premium exploite le réseau backbone mondial de haute qualité de Google, tandis que le niveau Standard utilise l'Internet public pour acheminer le trafic sur le réseau. Le niveau de réseau que vous choisissez dépend de la priorité que vous accordez aux coûts ou aux performances pour votre charge de travail d'entreprise. Certains services d'équilibrage de charge ne sont disponibles qu'au niveau Premium et non au niveau Standard. Pour en savoir plus, consultez la section Niveaux de service réseau Premium et Standard.

  • Fonctionnalités avancées. Cloud Load Balancing propose des fonctionnalités telles que l'équilibrage de charge IPv6, l'orientation du trafic basée sur l'adresse IP source, l'équilibrage de charge pondéré, les WebSockets, les en-têtes de requêtes définis par l'utilisateur et le transfert de protocole pour les adresses IP virtuelles privées (VIP).

    Il comprend également les intégrations suivantes :

    • Intégration avec Cloud CDN pour la diffusion de contenu mis en cache. Cloud CDN est compatible avec l'équilibreur de charge d'application externe global et l'équilibreur de charge d'application classique.
    • Intégration avec Google Cloud Armor pour protéger votre infrastructure contre les attaques par déni de service distribué (DDoS) et d'autres attaques d'applications ciblées. La protection DDoS permanente est disponible pour l'équilibreur de charge d'application externe global, l'équilibreur de charge d'application classique, l'équilibreur de charge réseau proxy externe et l'équilibreur de charge réseau externe passthrough. De plus, Google Cloud Armor n'est compatible avec la protection avancée contre les attaques DDoS que pour les équilibreurs de charge réseau externes passthrough. Pour en savoir plus, consultez la page Configurer la protection DDoS avancée du réseau.

Types d'équilibreurs de charge Google Cloud

Cloud Load Balancing propose deux types d'équilibreurs de charge : les équilibreurs de charge d'application et les équilibreurs de charge réseau. Vous devez choisir un équilibreur de charge d'application lorsque vous avez besoin d'un équilibreur de charge de couche 7 pour vos applications avec du trafic HTTP(S). Vous devez choisir un équilibreur de charge réseau lorsque vous avez besoin d'un équilibreur de charge de couche 4 compatible avec le déchargement TLS (avec un équilibreur de charge proxy) ou lorsque vous avez besoin de protocoles IP tels que UDP, ESP et ICMP. (avec un équilibreur de charge passthrough).

Le tableau suivant présente les différents types d'équilibreurs de charge Google Cloud, classés par couche OSI sur laquelle ils fonctionnent et par accès externe ou interne.

lan Cloud Load Balancing Externe
(accepte le trafic Internet)
Interne
(n'accepte que le trafic RFC 1918)
Équilibreurs de charge d'application

HTTPS
Équilibrement de charge de couche 7
  • Externe global
  • régional, externe
  • classique
  • interne interrégional
  • interne régional
Équilibreurs de charge réseau

TCP/SSL/Autre
Équilibrage de charge de couche 4
Équilibreurs de charge réseau proxy
  • Externe global
  • régional, externe
  • classique
  • interne interrégional
  • interne régional
Équilibreurs de charge réseau passthrough
  • régional, externe
  • interne régional

Équilibreurs de charge d'application

Les équilibreurs de charge d'application sont des équilibreurs de charge basés sur un proxy de couche 7 qui vous permettent d'exécuter et de faire évoluer vos services derrière une adresse IP anycast. L'équilibreur de charge d'application répartit le trafic HTTP et HTTPS entre les backends hébergés sur diverses plates-formes Google Cloud, telles que Compute Engine et Google Kubernetes Engine (GKE), ainsi que les backends en dehors de Google Cloud

Le schéma suivant fournit une vue d'ensemble des différents types d'équilibreurs de charge d'application pouvant être déployés en externe ou en interne, selon que votre application est Web ou interne.

Différents types d'équilibreurs de charge d'application
Différents types d'équilibreurs de charge d'application.

Les équilibreurs de charge d'application externes sont mises en œuvre en tant que services gérés sur Google Front End (GFE) ou Proxys Envoy. Les clients peuvent se connecter à ces équilibreurs de charge depuis n'importe où sur Internet. Veuillez noter les points suivants :

  • Ces équilibreurs de charge peuvent être déployés dans les modes suivants : global, régional ou classique.
  • Les équilibreurs de charge d'application externes globaux sont compatibles avec les backends dans plusieurs régions.
  • Les équilibreurs de charge d'application externes régionaux n'acceptent que les backends d'une seule région.
  • Les équilibreurs de charge d'application classiques sont globaux au niveau Premium. Au niveau Standard, ils ne peuvent distribuer le trafic qu'aux backends d'une seule région.
  • Les équilibreurs de charge d'application utilisent le proxy Envoy Open Source pour activer les fonctionnalités avancées de gestion du trafic.

Les équilibreurs de charge d'application internes sont basés sur la pile de virtualisation de réseau Andromeda et le proxy Envoy Open Source. Cet équilibreur de charge fournit un équilibrage de charge par proxy interne des données d'application de couche 7. L'équilibreur de charge utilise une adresse IP interne accessible uniquement aux clients situés dans le même réseau VPC ou aux clients connectés à votre réseau VPC. Veuillez noter les points suivants :

  • Ces équilibreurs de charge peuvent être déployés dans les modes suivants : régional ou interrégional.
  • Les équilibreurs de charge d'application internes régionaux n'acceptent les backends que d'une seule région.
  • Les équilibreurs de charge d'application internes interrégionaux sont compatibles avec les backends de plusieurs régions et sont toujours accessibles dans le monde entier. Les clients de n'importe quelle région Google Cloud peuvent envoyer du trafic vers l'équilibreur de charge.

Pour en savoir plus sur les équilibreurs de charge d'application, consultez la présentation de l'équilibreur de charge d'application.

Équilibreurs de charge réseau

Les équilibreurs de charge réseau sont des équilibreurs de charge de couche 4 capables de gérer le trafic TCP, UDP ou autre protocole IP. Ces équilibreurs de charge sont disponibles en tant qu'équilibreurs de charge proxy ou directs. Vous pouvez choisir un équilibreur de charge en fonction des besoins de votre application et du type de trafic qu'il doit gérer. Choisissez un équilibreur de charge réseau proxy si vous souhaitez configurer un équilibreur de charge proxy inverse compatible avec les contrôles de trafic avancés et les backends sur site et dans d'autres environnements cloud. Choisissez un équilibreur de charge réseau passthrough si vous souhaitez conserver l'adresse IP source des paquets client, vous préférez le retour direct du serveur pour les réponses ou vous souhaitez gérer divers protocoles IP tels que TCP, UDP, ESP, GRE, ICMP et ICMPv6.

Équilibreurs de charge réseau proxy

Les équilibreurs de charge réseau proxy sont des équilibreurs de charge proxy inverse de couche 4 qui distribuent le trafic TCP aux instances de machines virtuelles (VM) de votre réseau VPC Google Cloud. Le trafic est interrompu au niveau de la couche d'équilibrage de charge, puis transmis au backend disponible le plus proche à l'aide du protocole TCP.

Le diagramme suivant fournit une vue d'ensemble des différents types d'équilibreurs de charge réseau proxy qui peuvent être déployés en externe ou en interne, selon que votre application est Web ou interne.

Différents types d'équilibreurs de charge réseau proxy
Différents types d'équilibreurs de charge réseau proxy.

Les équilibreurs de charge réseau proxy externes sont des équilibreurs de charge de couche 4 qui distribuent le trafic provenant d'Internet aux backends de votre réseau VPC Google Cloud, sur site ou dans d'autres environnements cloud. Ces équilibreurs de charge sont basés sur des Google Front End (GFE) ou des proxys Envoy.

Ces équilibreurs de charge peuvent être déployés dans les modes suivants : global, régional ou classique.

  • Les équilibreurs de charge réseau proxy externes globaux sont compatibles avec les backends de plusieurs régions.
  • Les équilibreurs de charge réseau proxy externes régionaux sont compatibles avec les backends d'une seule région.
  • Les équilibreurs de charge réseau proxy classiques sont globaux au niveau Premium. Au niveau Standard, ils ne peuvent distribuer le trafic qu'aux backends d'une seule région.

Les équilibreurs de charge réseau internes proxy sont des équilibreurs de charge régionaux de couche 4 basés sur un proxy Envoy qui vous permettent d'exécuter et d'effectuer le scaling de votre trafic de service TCP derrière une adresse IP interne accessible uniquement aux clients du même réseau VPC ou aux clients connectés à votre réseau VPC.

Ces équilibreurs de charge peuvent être déployés dans l'un des modes suivants : régional ou interrégional.

  • Les équilibreurs de charge réseau proxy internes régionaux n'acceptent que les backends d'une seule région.
  • Les équilibreurs de charge réseau proxy internes interrégionaux sont compatibles avec les backends de plusieurs régions et sont toujours accessibles dans le monde entier. Les clients de n'importe quelle région Google Cloud peuvent envoyer du trafic vers l'équilibreur de charge.

Pour en savoir plus sur les équilibreurs de charge réseau proxy, consultez la présentation de l'équilibreur de charge réseau proxy.

Équilibreurs de charge réseau passthrough

Les équilibreurs de charge réseau passthrough sont des équilibreurs de charge passthrough régionaux de couche 4. Ces équilibreurs de charge répartissent le trafic entre les backends de la même région que l'équilibreur de charge. Ils sont mis en œuvre à l'aide de la mise en réseau virtuelle Andromeda et de Google Maglev.

Comme leur nom l'indique, ces équilibreurs de charge ne sont pas des proxys. Les paquets à équilibrage de charge sont reçus par les VM de backend avec les adresses IP source et de destination de paquet, le protocole et, si celui-ci est basé sur le port, les ports source et de destination inchangés. Les connexions à équilibrage de charge sont interrompues au niveau des backends. Les réponses provenant des VM backend vont directement aux clients. Elles ne passent pas par l'équilibreur de charge. Le terme utilisé dans le secteur est retour direct du serveur.

Comme illustré dans l'image suivante, ces équilibreurs de charge sont déployés dans deux modes, selon qu'ils sont Web ou internes.

Différents types d'équilibreurs de charge réseau passthrough
Différents types d'équilibreurs de charge réseau passthrough.
  • Les équilibreurs de charge réseau externes passthrough sont basés sur Maglev. Les clients peuvent se connecter à ces équilibreurs de charge depuis n'importe où sur Internet, quels que soient leurs niveaux de service réseau. L'équilibreur de charge peut également recevoir du trafic provenant de VM Google Cloud avec des adresses IP externes ou de VM Google Cloud ayant accès à Internet via Cloud NAT ou une NAT basée sur une instance.

    Les backends des équilibreurs de charge réseau passthrough externes peuvent être déployés à l'aide d'un service de backend ou d'un pool cible. Pour les nouveaux déploiements, nous vous recommandons d'utiliser des services de backend.

  • Les équilibreurs de charge réseau internes passthrough sont basés sur la pile de virtualisation de réseau Andromeda. Un équilibreur de charge réseau interne passthrough vous permet d'équilibrer la charge du trafic TCP/UDP derrière une adresse IP d'équilibrage de charge interne accessible uniquement aux systèmes du même réseau VPC ou des systèmes connectés à votre réseau VPC. Cet équilibreur de charge ne peut être configuré qu'avec le niveau Premium.

Pour en savoir plus sur les équilibreurs de charge réseau passthrough, consultez Équilibreur de charge réseau passthrough.

Composants de l'équilibreur de charge

Un équilibreur de charge est un système composé de plusieurs composants qui interagissent. Il n'existe pas de ressource d'API unique qui représente un équilibreur de charge. Au lieu de cela, plusieurs composants fonctionnent ensemble pour distribuer le trafic entrant sur plusieurs backends.

Le schéma suivant montre les composants principaux d'un équilibreur de charge d'application, d'un équilibreur de charge réseau proxy et d'un équilibreur de charge réseau passthrough.

Équilibreur de charge d'application

Composants d'un équilibreur de charge d'application
Composants d'un équilibreur de charge d'application (cliquez pour agrandir).

Équilibreur de charge réseau proxy

Composants d'un équilibreur de charge réseau proxy
Composants d'un équilibreur de charge réseau proxy (cliquez pour agrandir).

Équilibreur de charge réseau passthrough

Composants d'un équilibreur de charge réseau passthrough
Composants d'un équilibreur de charge réseau passthrough (cliquez pour agrandir)

Les informations suivantes sont une présentation générale des principaux composants d'un équilibreur de charge, du point où le trafic atteint l'équilibreur de charge à l'étape où il est acheminé vers la ressource backend. Pour mieux comprendre chaque composant de l'équilibreur de charge, consultez la page associée à chaque section.

Règle de transfert

Une règle de transfert spécifie une adresse IP, un protocole IP et un ou plusieurs ports sur lesquels l'équilibreur de charge accepte du trafic. La règle de transfert et l'adresse IP qui lui est associée représentent l'interface d'un équilibreur de charge Google Cloud.

Pour en savoir plus, consultez la page Présentation des règles de transfert.

Proxy cible

Les proxys cibles interrompent les connexions entrantes émanant des clients et créent des connexions depuis l'équilibreur de charge vers les backends.

  • La première connexion provient du client et se termine au niveau du proxy cible de l'équilibreur de charge.

  • La deuxième connexion commence au niveau du proxy cible et se termine à l'instance backend, qui gère la requête client.

La première connexion se termine dans un Google Front End (GFE) ou dans un sous-réseau spécialement désigné appelé sous-réseau proxy réservé, qui est réservé exclusivement aux proxys Envoy. Pour savoir si un équilibreur de charge est basé sur GFE ou sur Envoy, consultez le tableau de la section Technologies sous-jacentes des équilibreurs de charge Google Cloud de ce document.

Les proxy cibles ne sont utilisés que par les équilibreurs de charge basés sur un proxy, tels que les équilibreurs de charge d'application et les équilibreurs de charge réseau proxy. Pour ces types d'équilibreurs de charge, les réponses des instances backend sont renvoyées au proxy cible plutôt qu'au client directement.

Pour en savoir plus, consultez la section Proxys cibles.

Sous-réseau proxy réservé

Un sous-réseau proxy réservé fournit un pool d'adresses IP réservées exclusivement aux proxys Envoy utilisés par les équilibreurs de charge Google Cloud. Les proxys interrompent les connexions entrantes, puis créent de nouvelles connexions vers le backend.

Pour en savoir plus, consultez la section Sous-réseaux proxy réservés aux équilibreurs de charge basés sur Envoy.

Certificats SSL

Également appelés certificats TLS (Transport Layer Security), les certificats SSL facilitent la communication sécurisée entre les clients et les équilibreurs de charge. Les équilibreurs de charge basés sur un proxy dont les règles de transfert font référence à un proxy HTTPS cible ou à un proxy SSL cible nécessitent une clé privée et un certificat SSL dans la configuration du proxy cible de l'équilibreur de charge.

Pour en savoir plus, consultez la page Certificats SSL.

Mappage d'URL

Une fois la connexion interrompue, le proxy HTTP(S) cible utilise le mappage d'URL pour déterminer où rediriger la nouvelle requête (la deuxième connexion, comme indiqué dans la section Proxy cible). La requête est acheminée vers le service de backend ou le bucket backend. Les mappages d'URL ne sont utilisés que par les équilibreurs de charge d'application. Étant donné que les équilibreurs de charge d'application fonctionnent au niveau de la couche 7 du modèle OSI, ils peuvent prendre des décisions de routage basées sur des attributs HTTP, tels que le nom de domaine, le chemin de requête et les paramètres de requête.

Pour en savoir plus, consultez la section Mappages d'URL.

Service de backend

Un service de backend définit la façon dont votre équilibreur de charge distribue le trafic. La configuration du service de backend contient un ensemble de valeurs, telles que le protocole utilisé pour se connecter aux backends, divers paramètres de répartition et de gestion des sessions, les vérifications d'état et les délais avant expiration.

Ces paramètres vous permettent de contrôler précisément le comportement de votre équilibreur de charge et de diriger le trafic vers les bons backends, qui peuvent être des groupes d'instances de VM ou des groupes de points de terminaison du réseau (NEG).

Pour en savoir plus, consultez la page Présentation des services de backend.

Bucket backend

Si votre charge de travail diffuse du contenu statique à l'aide du protocole HTTP(S), vous pouvez utiliser un bucket Cloud Storage pour stocker du contenu statique, puis un bucket backend pour y acheminer les requêtes.

Vérifications d'état

Lorsque vous configurez le service de backend d'un équilibreur de charge, vous devez spécifier une ou plusieurs vérifications d'état pour ses backends. Comme son nom l'indique, une vérification de l'état détermine si les instances backend de l'équilibreur de charge sont opérationnelles. Cette détermination est basée sur la capacité du backend à répondre au trafic entrant. Le trafic auquel un backend doit répondre dépend du type d'équilibreur de charge. Vous pouvez créer des vérifications d'état à l'aide des protocoles de couche 7 et de couche 4 pour surveiller les instances à équilibrage de charge.

Règles de pare-feu

Pour que les vérifications d'état fonctionnent, vous devez créer des règles de pare-feu d'entrée allow qui permettent aux vérifications d'état d'atteindre vos backends.

Les équilibreurs de charge basés sur Google Front End nécessitent une règle de pare-feu autorisant le trafic entrant et permettant au trafic provenant des CIDR de Google Front End de se connecter à vos backends. Les équilibreurs de charge basés sur le proxy Envoy Open Source requièrent une règle de pare-feu allow d'entrée qui autorise le trafic provenant du sous-réseau proxy réservé à atteindre les instances backend.

Pour en savoir plus, consultez la section Règles de pare-feu.

Backends

Les backends sont la destination finale du trafic équilibré.

Différents équilibreurs de charge sont compatibles avec différents types de backends. Lorsque vous ajoutez un backend au service de backend, vous spécifiez un mode d'équilibrage qui évalue la capacité du backend à gérer les nouvelles requêtes et détermine la répartition du trafic entre les backends.

Pour en savoir plus, consultez la section Backends.

Technologies sous-jacentes des équilibreurs de charge Google Cloud

Le tableau suivant indique la technologie sous-jacente sur laquelle chaque équilibreur de charge Google Cloud est basé.

  • Les Google Front Ends (GFE) sont des systèmes distribués définis par logiciel qui sont situés dans les points de présence Google (POP) et assurent un équilibrage de charge global conjointement avec d'autres systèmes et plans de contrôle.
  • Andromeda est la pile de virtualisation de réseau définie par logiciel de Google Cloud.
  • Maglev est un système distribué pour l'équilibrage de charge réseau.
  • Envoy est un proxy de service et de périphérie Open Source, conçu pour les applications cloud natives.
Équilibreur de charge Technologie
Équilibreur de charge d'application externe mondial Google Front End (GFE) basé sur Envoy
Équilibreur de charge d'application classique GFE
Équilibreur de charge d'application externe régional Envoy
Équilibreur de charge d'application interne interrégional Envoy
Équilibreur de charge d'application interne régional Envoy
Équilibreur de charge réseau proxy externe global GFE basé sur Envoy
Équilibreur de charge réseau proxy classique GFE
Équilibreur de charge réseau proxy externe régional Envoy
Équilibreur de charge réseau proxy interne régional Envoy
Équilibreur de charge réseau proxy interne interrégional Envoy
Équilibreur de charge réseau passthrough externe Maglev
Équilibreur de charge réseau passthrough interne Andromeda

Choisir un équilibreur de charge

Pour déterminer le produit Cloud Load Balancing à utiliser, vous devez d'abord déterminer le type de trafic que vos équilibreurs de charge doivent gérer. En règle générale, il est préférable de choisir un équilibreur de charge d'application lorsque vous avez besoin d'un ensemble de fonctionnalités flexible pour vos applications avec du trafic HTTP(S). De plus, vous devez choisir un équilibreur de charge réseau lorsque vous avez besoin du déchargement TLS à grande échelle ou qu'il est compatible avec UDP, ou si vous devez exposer des adresses IP clientes à vos applications.

Vous pouvez affiner vos choix en fonction des exigences de votre application : équilibreur de charge externe (Web) ou interne, si les backends doivent être déployés à l'échelle mondiale ou régionale et si vous avez besoin du niveau de service réseau Premium ou Standard.

Le schéma suivant illustre tous les modes de déploiement disponibles pour Cloud Load Balancing. Pour en savoir plus, consultez le guide Choisir un équilibreur de charge.

Choisir un équilibreur de charge
Choisir un équilibreur de charge (cliquez pour agrandir).

1. Les équilibreurs de charge d'application externes globaux sont compatibles avec deux modes de fonctionnement: global et classique.

2. Les équilibreurs de charge réseau proxy externes globaux acceptent deux modes de fonctionnement: global et classique.

3. Les équilibreurs de charge réseau passthrough conservent les adresses IP sources du client. Les équilibreurs de charge réseau passthrough acceptent également des protocoles supplémentaires tels que UDP, ESP et ICMP.

Récapitulatif des types d'équilibreurs de charge Google Cloud

Le tableau suivant fournit des informations, telles que le niveau de service réseau sur lequel chaque équilibreur de charge fonctionne, ainsi que son schéma d'équilibrage de charge.

Équilibreur de charge Mode de déploiement Type de trafic Niveau de service réseau Schéma d'équilibrage de charge *
Équilibreurs de charge d'application Externe global HTTP ou HTTPS Niveau Premium EXTERNAL_MANAGED
Externe régional HTTP ou HTTPS Niveau Premium ou Standard EXTERNAL_MANAGED
Classique HTTP ou HTTPS

Global au niveau Premium

Régional au niveau Standard

EXTERNE
Régional interne HTTP ou HTTPS Niveau Premium INTERNAL_MANAGED
Interne interrégional HTTP ou HTTPS Niveau Premium INTERNAL_MANAGED
Équilibreurs de charge réseau proxy Externe global TCP avec déchargement SSL facultatif Niveau Premium EXTERNAL_MANAGED
Externe régional TCP Niveau Premium ou Standard EXTERNAL_MANAGED
Classique TCP avec déchargement SSL facultatif

Global au niveau Premium

Régional au niveau Standard

EXTERNAL
Régional interne TCP sans déchargement SSL Niveau Premium INTERNAL_MANAGED
Interne interrégional TCP sans déchargement SSL Niveau Premium INTERNAL_MANAGED
Équilibreurs de charge réseau passthrough

Externe

Toujours régional

TCP, UDP, ESP, GRE, ICMP et ICMPv6 Niveau Premium ou Standard EXTERNAL

Interne

Toujours régional

TCP, UDP, ICMP, ICMPv6, SCTP, ESP, AH et GRE Niveau Premium INTERNAL

* Le schéma d'équilibrage de charge est un attribut de la règle de transfert et du service de backend d'un équilibreur de charge qui indique si l'équilibreur de charge peut être utilisé pour le trafic interne ou externe.

Le terme géré dans "EXTERNAL_MANAGED" ou "INTERNAL_MANAGED" indique que l'équilibreur de charge est implémenté en tant que service géré sur un Google Front End (GFE) ou sur le proxy Envoy Open Source. Dans un schéma d'équilibrage de charge géré, les requêtes sont acheminées vers GFE ou vers le proxy Envoy.

Il est possible d'associer des services de backend EXTERNAL_MANAGED à des règles de transfert EXTERNAL. Toutefois, les services de backend EXTERNAL ne peuvent pas être associés à des règles de transfert EXTERNAL_MANAGED. Pour profiter des nouvelles fonctionnalités disponibles uniquement avec l'équilibreur de charge d'application externe mondial, nous vous recommandons de migrer vos ressources EXTERNAL existantes vers EXTERNAL_MANAGED à l'aide du processus de migration décrit dans la section Migrer des ressources de l'équilibreur de charge d'application classique vers l'équilibreur de charge d'application externe mondial.

Interfaces

Vous pouvez configurer et mettre à jour vos équilibreurs de charge via les interfaces suivantes :

  • Google Cloud CLI : outil de ligne de commande inclus dans Google Cloud CLI. La documentation appelle fréquemment cet outil pour effectuer des tâches. Pour une présentation complète de l'outil, consultez le guide de gcloud CLI. Vous trouverez des commandes associées à l'équilibrage de charge dans la section dédiée au groupe de commandes gcloud compute.

    Vous pouvez également obtenir une assistance approfondie pour n'importe quelle commande gcloud à l'aide de l'option --help.

    gcloud compute http-health-checks create --help
    
    
  • La console Google Cloud : les tâches d'équilibrage de charge peuvent être effectuées via la console Google Cloud.

  • L'API REST : toutes les tâches d'équilibrage de charge peuvent être réalisées à l'aide de l'API Cloud Load Balancing. La documentation de référence de l'API décrit les ressources et les méthodes mises à votre disposition.

  • Terraform : vous pouvez provisionner, mettre à jour et supprimer l'infrastructure d'équilibrage de charge Google Cloud à l'aide d'un outil d'infrastructure sous forme de code Open Source tel que Terraform.

Étapes suivantes