Un servicio de backend define cómo Cloud Load Balancing distribuye el tráfico. La configuración del servicio de backend contiene un conjunto de valores, como el protocolo que se usa para conectarse a backends, varios parámetros de configuración de distribución y sesión, verificaciones de estado y tiempos de espera. Esta configuración proporciona un control detallado sobre el comportamiento del balanceador de cargas. Para comenzar, la mayoría de las opciones de configuración tienen valores predeterminados que permiten una configuración rápida. Un servicio de backend puede tener un permiso global oregional.
Los balanceadores de cargas, los proxies de Envoy y los clientes de gRPC sin proxy usan la información de configuración en el recurso del servicio de backend para hacer lo siguiente:
- Dirigir el tráfico a los backends correctos, que son grupos de instancias o grupos de extremos de red (NEG).
- Distribuir el tráfico según un modo de balanceo, que es una configuración para cada backend
- Determinar qué verificación de estado supervisa el estado de los backends
- Especificar la afinidad de sesión.
- Determina si otros servicios están habilitados, incluidos los siguientes que solo están disponibles para ciertos balanceadores de cargas:
- Cloud CDN
- Políticas de seguridad de Google Cloud Armor
- Identity-Aware Proxy
- Designa los servicios de backend regionales como un servicio en App Hub, que está en vista previa.
Establece estos valores cuando creas un servicio de backend o cuando agregas un backend al servicio de backend.
Nota: Si usas el balanceador de cargas de aplicaciones externo global o el balanceador de cargas de aplicaciones clásico, y tus backends entregan contenido estático, considera usar buckets de backend en lugar de los servicios de backend.En la siguiente tabla, se resumen los balanceadores de cargas que usan servicios de backend. El producto que usas determina la cantidad máxima de servicios de backend, el permiso de un servicio de backend, el tipo de backends compatibles y el esquema de balanceo de cargas del servicio de backend. El esquema de balanceo de cargas es un identificador que Google usa para clasificar reglas de reenvío y servicios de backend. Cada producto de balanceo de cargas usa un esquema de balanceo de cargas para las reglas de reenvío y los servicios de backend. Algunos esquemas se comparten entre los productos.
Producto | Cantidad máxima de servicios de backend | Alcance del servicio de backend | Tipos de backends compatibles | Esquema de balanceo de cargas |
---|---|---|---|---|
Balanceador de cargas de aplicaciones externo global | Varias | Global | Cada servicio de backend admite una de las siguientes combinaciones:
|
EXTERNAL_MANAGED |
Balanceador de cargas de aplicaciones clásico | Varias | Global* | Cada servicio de backend admite una de las siguientes combinaciones:
|
EXTERNO |
Balanceador de cargas de aplicaciones externo regional | Varias | Regional | Cada servicio de backend admite una de las siguientes combinaciones:
|
EXTERNAL_MANAGED |
Balanceador de cargas de aplicaciones interno entre regiones | Varias | Global | Cada servicio de backend admite una de las siguientes combinaciones:
|
INTERNAL_MANAGED |
Balanceador de cargas de aplicaciones interno regional | Varias | Regional | Cada servicio de backend admite una de las siguientes combinaciones:
|
INTERNAL_MANAGED |
Balanceador de cargas de red del proxy externo global | 1 | El servicio de backend admite una de las siguientes combinaciones de backend:
|
EXTERNAL_MANAGED | |
Balanceador de cargas de red del proxy clásico | 1 | Global* | El servicio de backend admite una de las siguientes combinaciones de backend:
|
EXTERNO |
Balanceador de cargas de red del proxy externo regional | 1 | Regional | El servicio de backend admite una de las siguientes combinaciones de backend:
|
EXTERNAL_MANAGED |
Balanceador de cargas de red de proxy interno regional | 1 | Regional | El servicio de backend admite una de las siguientes combinaciones de backend:
|
INTERNAL_MANAGED |
Balanceador de cargas de red de proxy interno entre regiones | Varias | Global | El servicio de backend admite una de las siguientes combinaciones de backend:
|
INTERNAL_MANAGED |
Balanceador de cargas de red de transferencia externo | 1 | Regional | El servicio de backend admite una de las siguientes combinaciones de backend:
|
EXTERNO |
Balanceador de cargas de red de transferencia interno | 1 | Regional, pero configurable para que sea accesible a nivel global | El servicio de backend admite una de las siguientes combinaciones de backend:
|
INTERNAL |
Cloud Service Mesh | Varias | Global | Cada servicio de backend admite una de las siguientes combinaciones:
|
INTERNAL_SELF_MANAGED |
- La regla de reenvío y su dirección IP externa son regionales.
- Todos los backends conectados al servicio de backend deben estar ubicados en la misma región que la regla de reenvío.
GCE_VM_IP_PORT
.
Backends
Un backend es uno o más extremos que reciben tráfico de un balanceador de cargas de Google Cloud, un proxy de Envoy configurado por Cloud Service Mesh o un cliente de gRPC sin proxy. Existen varios tipos de backends:
- Grupo de instancias que contiene instancias de máquina virtual (VM). Un grupo de instancias puede ser administrado (MIG), con o sin ajuste de escala automático, o puede ser no administrado. Más de un servicio de backend puede hacer referencia a un grupo de instancias, pero todos los servicios de backend que hacen referencia al grupo de instancias deben usar el mismo modo de balanceo.
- NEG zonal
- NEG sin servidores
- NEG de Internet
- NEG de conectividad híbrida
- NEG de Private Service Connect
- NEG de asignación de puertos (vista previa)
- Vinculaciones del servicio del Directorio de servicios
No puedes borrar un grupo de instancias de backend o un NEG que estén asociados con un servicio de backend. Antes de borrar un grupo de instancias o un NEG, primero debes quitarlos como un backend de todos los servicios de backend que hacen referencia a ellos.
Grupos de instancias
En esta sección, se analiza cómo funcionan los grupos de instancias con el servicio de backend.
Direcciones IP externas y VM de backend
Las VMs de backend en los servicios de backend no necesitan direcciones IP externas:
- En el caso de los balanceadores de cargas de aplicaciones externos globales y los balanceadores de cargas de red del proxy externos: los clientes se comunican con un Google Front End (GFE) que aloja la dirección IP externa del balanceador de cargas. Los GFE se comunican con las VMs o los extremos de backend mediante el envío de paquetes a una dirección interna creada mediante la unión de un identificador a la red de VPC del backend con la dirección IPv4 interna del backend. La comunicación entre los GFE y los extremos o VMs de backend se facilita mediante rutas especiales.
- Para los backends de grupo de instancias, la dirección IPv4 interna siempre es la dirección IPv4 interna principal que corresponde a la interfaz
nic0
de la VM. - Para extremos
GCE_VM_IP_PORT
en un NEG zonal, puedes especificar la dirección IP del extremo como la dirección IPv4 principal asociada con cualquier interfaz de red de una VM o cualquier dirección IPv4 de un rango de direcciones IP de alias asociado con cualquier red interfaz de una VM.
- Para los backends de grupo de instancias, la dirección IPv4 interna siempre es la dirección IPv4 interna principal que corresponde a la interfaz
Para los balanceadores de cargas de aplicaciones externos regionales: los clientes se comunican con un proxy de Envoy que aloja la dirección IP externa del balanceador de cargas. Los proxies de Envoy se comunican con las VMa o los extremos de backend mediante el envío de paquetes a una dirección interna creada mediante la unión de un identificador a la red de VPC del backend con la dirección IPv4 interna del backend.
- Para los backends de grupo de instancias, la dirección IPv4 interna siempre es la dirección IPv4 interna principal que corresponde a la interfaz
nic0
de la VM ynic0
debe estar en la misma red que el balanceador de cargas. - Para extremos
GCE_VM_IP_PORT
en un NEG zonal, puedes especificar la dirección IP del extremo como la dirección IPv4 principal asociada con cualquier interfaz de red de una VM o cualquier dirección IPv4 de un rango de direcciones IP de alias asociado con cualquier interfaz de red de una VM, siempre que la interfaz de red esté en la misma red que el balanceador de cargas.
- Para los backends de grupo de instancias, la dirección IPv4 interna siempre es la dirección IPv4 interna principal que corresponde a la interfaz
Para los balanceadores de cargas de red externos: los clientes se comunican directamente con los backends a través de la infraestructura de balanceo de cargas de paso de Maglev de Google. Los paquetes se enrutan y se entregan a los backends con las direcciones IP de origen y destino originales conservadas. Los backends responden a los clientes mediante el retorno directo del servidor. Los métodos utilizados para seleccionar un backend y realizar un seguimiento de las conexiones son configurables.
- Para los backends de grupos de instancias, los paquetes siempre se entregan a la interfaz
nic0
de la VM. - Para los extremos
GCE_VM_IP
en un NEG zonal, los paquetes se entregan a la interfaz de red de la VM que se encuentra en la subred asociada con el NEG.
- Para los backends de grupos de instancias, los paquetes siempre se entregan a la interfaz
Puertos con nombre
El atributo del puerto con nombre del servicio de backend solo se aplica a los balanceadores de cargas basados en proxy (balanceadores de cargas de aplicaciones y balanceadores de cargas de red de proxy) que usan backends de grupos de instancias. El puerto con nombre define el puerto de destino que se usa para la conexión TCP entre el proxy (GFE o Envoy) y la instancia de backend.
Los puertos con nombre se configuran de la siguiente manera:
En cada backend del grupo de instancias, debes configurar uno o más puertos con nombre mediante pares clave-valor. La clave representa un nombre de puerto significativo que eliges y el valor representa el número de puerto que asignas al nombre. La asignación de nombres a números se realiza de forma individual para cada backend del grupo de instancias.
En el servicio de backend, debes especificar un solo puerto con nombre únicamente con el nombre del puerto (
--port-name
).
En cada backend de grupo de instancias, el servicio de backend traduce el nombre del puerto a un número de puerto. Cuando el puerto con nombre de un grupo de instancias coincide con el --port-name
del servicio de backend, el servicio de backend usa este número de puerto para la comunicación con las VMs del grupo de instancias.
Por ejemplo, puedes configurar el puerto con nombre en un grupo de instancias con el nombre my-service-name
y el puerto 8888
:
gcloud compute instance-groups unmanaged set-named-ports my-unmanaged-ig \ --named-ports=my-service-name:8888
Luego, debes hacer referencia al puerto con nombre en la configuración del servicio de backend mediante el --port-name
en el servicio de backend configurado como my-service-name
:
gcloud compute backend-services update my-backend-service \ --port-name=my-service-name
Un servicio de backend puede usar un número de puerto diferente cuando se comunica con las VM en grupos de instancias diferentes si cada grupo de instancias especifica un número de puerto diferente para el mismo nombre de puerto.
No es necesario que el número de puerto resuelto que usa el servicio de backend del balanceador de cargas de proxy coincida con el número de puerto que usan las reglas de reenvío del balanceador de cargas. Un balanceador de cargas de proxy escucha las conexiones TCP enviadas a la dirección IP y al puerto de destino de las reglas de reenvío. Debido a que el proxy abre una segunda conexión de TCP a sus backends, el puerto de destino de la segunda conexión de TCP puede ser diferente.
Los puertos con nombre solo se aplican a los backends de grupos de instancias. Los NEG zonales con
extremos GCE_VM_IP_PORT
, los NEG híbridos con extremos NON_GCP_PRIVATE_IP_PORT
los NEG de Internet definen puertos mediante un mecanismo diferente, es decir,
en los extremos. NEG sin servidores hace referencia a los servicios de Google y los NEG
de PSC hacen referencia a los adjuntos de servicio mediante abstracciones que no implican
especificar un puerto de destino.
Los balanceadores de cargas de red de transferencia internos y los balanceadores de cargas de red de transferencias externos no usan puertos con nombre. Esto se debe a que son balanceadores de cargas de paso que enrutan las conexiones directamente a los backends en lugar de crear conexiones nuevas. Los paquetes se entregan a los backends mediante la preservación de la dirección IP y el puerto de destino de la regla de reenvío del balanceador de cargas.
Para aprender a crear puertos con nombre, consulta las siguientes instrucciones:
- Grupos de instancias no administrados: Trabaja con puertos con nombre
- Grupos de instancias administrados: Asigna puertos con nombre a grupos de instancias administrados
Restricciones y recomendaciones para grupos de instancias
Ten en cuenta las siguientes restricciones y recomendaciones cuando crees grupos de instancias para los balanceadores de cargas:
No pongas una VM en más de un grupo de instancias con balanceo de cargas. Si una VM es miembro de dos o más grupos de instancias no administrados, o de un grupo de instancias administrado y de uno o más grupos de instancias no administrados, solo puedes usar uno de esos grupos de instancias a la vez como backend para un servicio de backend en particular.
Si necesitas una VM para participar en varios balanceadores de cargas, debes usar el mismo grupo de instancias como backend en cada uno de los servicios de backend.
Para los balanceadores de cargas de proxy, cuando quieras balancear el tráfico en puertos diferentes, especifica los puertos con nombre necesarios en un grupo de instancias y haz que cada servicio de backend se suscriba a un único nombre llamado puerto.
Puedes usar el mismo grupo de instancias como backend para más de un servicio de backend. En esta situación, los backends deben usar modos de balanceo compatibles. Compatible significa que los modos de balanceo deben ser iguales o deben ser una combinación de
CONNECTION
yRATE
.Las combinaciones de modo de balanceo incompatibles son las siguientes:
CONNECTION
conUTILIZATION
RATE
conUTILIZATION
Considera el siguiente ejemplo:
- Tienes dos servicios de backend:
external-https-backend-service
para un balanceador de cargas de aplicaciones externo yinternal-tcp-backend-service
para un balanceador de cargas de red de transferencia interno. - Usas un grupo de instancias llamado
instance-group-a
eninternal-tcp-backend-service
. - En
internal-tcp-backend-service
, debes aplicar el modo de balanceoCONNECTION
, porque los balanceadores de cargas de red de transferencia internos solo admiten el modo de balanceoCONNECTION
. - También puedes usar
instance-group-a
enexternal-https-backend-service
si aplicas el modo de balanceoRATE
enexternal-https-backend-service
. - No puedes usar
instance-group-a
enexternal-https-backend-service
con el modo de balanceoUTILIZATION
.
Si deseas cambiar el modo de balanceo de un grupo de instancias que funciona como backend para varios servicios de backend, haz lo siguiente:
- Quita el grupo de instancias de todos los servicios de backend, excepto de uno.
- Cambia el modo de balanceo del backend en el servicio de backend restante.
- Vuelve a agregar el grupo de instancias como backend para los servicios de backend restantes, si es que admiten el modo de balanceo nuevo.
Si el grupo de instancias está asociado con varios servicios de backend, cada servicio de backend puede hacer referencia al mismo puerto con nombre o a un puerto con nombre diferente en el grupo de instancias.
Recomendamos que no se agregue un grupo de instancias administrado con ajuste de escala automático a más de un servicio de backend. Esto podría causar un escalamiento impredecible e innecesario de las instancias en el grupo, en especial si usas la métrica de ajuste de escala automático del uso del balanceo de cargas de HTTP.
- Aunque no se recomienda, esta situación podría funcionar si la métrica de ajuste de escala automático es uso de CPU o una métrica de Cloud Monitoring que no está relacionada con la capacidad de entrega del balanceador de cargas. El uso de una de estas métricas de ajuste de escala automático puede evitar el escalamiento errático.
Grupos de extremos de red zonales
Los extremos de red representan servicios por su dirección IP o una combinación de dirección IP y puerto, en lugar de hacer referencia a una VM de un grupo de instancias. Un grupo de extremos de red (NEG) es una agrupación lógica de extremos de red.
Los grupos de extremos de red por zonas (NEG) son recursos zonales que representan conjuntos de direcciones IP o combinaciones de direcciones IP y puertos para recursos de Google Cloud dentro de una única subred.
Los servicios de backend que usan NEG zonales como backends distribuyen el tráfico entre las aplicaciones o los contenedores que se ejecutan dentro de las VM.
Existen dos tipos de extremos de red disponibles para los NEG zonales:
- Extremos
GCE_VM_IP
(compatibles solo con balanceadores de cargas de red de transferencia internos y balanceadores de cargas de red de transferencia externos basados en servicios de backend). - Extremos de
GCE_VM_IP_PORT
.
Para ver qué productos admiten backends de NEG zonales, consulta Tabla: Servicios de backend y tipos de backends compatibles.
Para obtener más detalles, consulta la Descripción general de los NEG zonales.
Grupos de extremos de red de Internet
Los NEGs de Internet son recursos globales que definen backends externos. Un backend externo es un backend alojado en la infraestructura local o en la infraestructura proporcionada por terceros.
Un NEG de Internet es una combinación de un nombre de host o una dirección IP, más un puerto opcional. Existen dos tipos de extremos de red disponibles para los NEGs de Internet: INTERNET_FQDN_PORT
y INTERNET_IP_PORT
.
Para obtener más información, consulta Descripción general de los grupos de extremos de red de Internet.
Grupos de extremos de red sin servidores
Un grupo de extremos de red (NEG) especifica un grupo de extremos de backend para un balanceador de cargas. Un NEG sin servidores es un backend que apunta a un servicio de Cloud Run, App Engine, Cloud Run Functions o API Gateway.
Un NEG sin servidores puede representar una de las siguientes opciones:
- Un servicio de Cloud Run o un grupo de servicios
- Una función de Cloud Run Functions o un grupo de funciones.
- Una app de App Engine (estándar o flexible), un servicio específico dentro de una app, una versión específica de una app o un grupo de servicios.
- Una API Gateway que proporciona acceso a tus servicios a través de una API de REST coherente en todos los servicios, sin importar la implementación de estos. Esta función se encuentra en vista previa.
A fin de configurar un NEG sin servidores para aplicaciones sin servidores que comparten un patrón de URL, usa una máscara de URL. Una máscara de URL es una plantilla del esquema de URL (por ejemplo, example.com/<service>
). El NEG sin servidores usará esta plantilla para extraer el nombre <service>
de la URL de la solicitud entrante y enrutar la solicitud al servicio de Cloud Run, Cloud Run Functions o App Engine coincidente con el mismo nombre.
Para ver qué balanceadores de cargas admiten backends de NEG sin servidores, consulta Tabla: Servicios de backend y tipos de backends compatibles.
Para obtener más información sobre los NEG sin servidores, consulta la descripción general de los grupos de extremos de red sin servidores.
Vinculaciones del servicio
Una vinculación del servicio es un backend que establece una conexión entre un servicio de backend en Cloud Service Mesh y un servicio registrado en el Directorio de servicios. Un servicio de backend puede hacer referencia a varias vinculaciones del servicio. Un servicio de backend con una vinculación del servicio no puede hacer referencia a ningún otro tipo de backend.
Backends mixtos
Las siguientes consideraciones de uso se aplican cuando agregas diferentes tipos de backends a un solo servicio de backend:
- Un solo servicio de backend no puede usar simultáneamente grupos de instancias y NEG zonales.
- Puedes usar una combinación de tipos de grupos de instancias diferentes en el mismo servicio de backend. Por ejemplo, un solo servicio de backend puede hacer referencia a una combinación de grupos de instancias administrados y no administrados. Para obtener información completa sobre la compatibilidad de los backends con los servicios de backend, consulta la tabla de la sección anterior.
- Con ciertos balanceadores de cargas de proxy, puedes usar una combinación de NEG zonales (con extremos
GCE_VM_IP_PORT
) y NEG de conectividad híbrida (con extremosNON_GCP_PRIVATE_IP_PORT
) para configurar el balanceo de cargas híbrido. Para ver qué balanceadores de cargas tienen esta capacidad, consulta Tabla: Servicios de backend y tipos de backend compatibles.
Protocolo para los backends
Cuando creas un servicio de backend, debes especificar el protocolo que se usa para comunicarse con los backends. Puedes especificar solo un protocolo por servicio de backend; no puedes especificar un protocolo secundario para usar como resguardo.
Los protocolos válidos dependen del tipo de balanceador de cargas o de si se usa Cloud Service Mesh.
Producto | Opciones de protocolo del servicio de backend |
---|---|
Balanceador de cargas de aplicaciones | HTTP, HTTPS, HTTP/2 |
Balanceador de cargas de red del proxy | TCP o SSL Los balanceadores de cargas de red del proxy regional solo admiten TCP. |
Balanceador de cargas de red de transferencia | TCP, UDP, o UNSPECIFIED |
Cloud Service Mesh | HTTP, HTTPS, HTTP/2, gRPC, TCP |
Cuando cambias el protocolo de un servicio de backend, no se puede acceder a los backends a través de los balanceadores de cargas durante unos minutos.
Política de selección de direcciones IP
Este campo se aplica a los balanceadores de cargas de proxy. Debes usar la política de selección de direcciones IP para especificar el tipo de tráfico que se envía del servicio de backend a tus backends.
Cuando selecciones la política de selección de dirección IP, asegúrate de que tus backends admitan el tipo de tráfico seleccionado. Para obtener más información, consulta Tabla: Servicios de backend y backends compatibles tipos.
La política de selección de direcciones IP se usa cuando deseas convertir tu servicio de backend del balanceador de cargas para admitir un tipo de tráfico diferente. Para obtener más información, consulta Convierte de pila única a pila doble.
Puedes especificar los siguientes valores para la política de selección de direcciones IP:
Política de selección de direcciones IP | Descripción |
---|---|
Solo IPv4 | Solo envía tráfico IPv4 a los backends del servicio de backend, sin importar el tráfico del cliente al GFE. Solo IPv4 de estado se usan para comprobar el estado de los backends. |
Preferir IPv6 | Prioriza la conexión IPv6 del backend sobre el Conexión IPv4 (siempre que haya un backend en buen estado con direcciones IPv6). Las verificaciones de estado supervisan de forma periódica las conexiones IPv6 e IPv4 de los backends. GFE primero intenta establecer la conexión IPv6. Si la conexión IPv6 está interrumpida o es lenta, GFE usa visitantes felices para recurrir y conectarse a IPv4. Incluso si una de las conexiones IPv6 o IPv4 está en mal estado, el backend se considera en buen estado, y GFE puede probar ambas conexiones, y los visitantes felices, en última instancia, seleccionan cuál usar. |
Solo IPv6 | Solo envía tráfico IPv6 a los backends del servicio de backend, sin importar el tráfico del cliente al proxy. Solo IPv6 de estado se usan para comprobar el estado de los backends. No hay validación para verificar si el tipo de tráfico de backend coincide con la política de selección de direcciones IP. Por ejemplo, si tienes backends IPv4 y seleccionar |
Encriptación entre el balanceador de cargas y los backends
Para obtener más información sobre la encriptación entre el balanceador de cargas y los backends, consulta Encriptación en los backends.
Distribución del tráfico
Los valores de los siguientes campos del recurso de servicios de backend determinan algunos aspectos del comportamiento del backend:
- Un modo de balanceo define cómo el balanceador de cargas mide la preparación de backend para solicitudes o conexiones nuevas.
- Una capacidad de destino define una cantidad máxima de conexiones de destino, una tasa máxima de destino o el uso máximo de CPU de destino.
- Un escalador de capacidad ajusta la capacidad general disponible sin modificar la capacidad de destino.
Modo de balanceo
El modo de balanceo determina si los backends de un balanceador de cargas o Cloud Service Mesh pueden manejar el tráfico adicional o si están cargados por completo. Google Cloud tiene tres modos de balanceo:
CONNECTION
: Determina cómo se distribuye la carga en función de la cantidad total de conexiones que puede controlar el backend.RATE
: La cantidad máxima de solicitudes (consultas) de destino por segundo (RPS, QPS). Se puede exceder la cantidad máxima de RPS/QPS si se alcanza o supera la capacidad de todos los backends.UTILIZATION
: Determina cómo se distribuye la carga en función del uso de las instancias en un grupo de instancias.
Modos de balanceo disponibles para cada balanceador de cargas
Debes establecer el modo de balanceo cuando agregas un backend al servicio de backend. Los modos de balanceo disponibles para un balanceador de cargas dependen del tipo de balanceador de cargas y de los backends.
Los balanceadores de cargas de red de transferencia requieren el modo de balanceo CONNECTION
, pero no admiten la configuración de ninguna capacidad de destino.
Los balanceadores de cargas de aplicaciones admiten los modos de balanceo RATE
o UTILIZATION
para backends de grupo de instancias, el modo de balanceo RATE
para NEG zonales con extremos GCE_VM_IP_PORT
, y el modo de balanceo RATE
para los NEG híbridos (extremos NON_GCP_PRIVATE_IP_PORT
). Para cualquier otro tipo de backend compatible, se debe omitir el modo de balanceo.
Para los balanceadores de cargas de aplicaciones clásicos, se selecciona una región en función de la ubicación del cliente y si la región tiene capacidad disponible, según la capacidad de destino del modo de balanceo de cargas. Luego, dentro de una región, la capacidad objetivo del modo de balanceo se usa para calcular las proporciones sobre cuántas solicitudes deben dirigirse a cada backend de la región. Luego, las solicitudes o conexiones se distribuyen según un algoritmo round robin entre las instancias o los extremos dentro del backend.
Para los balanceadores de cargas de aplicaciones externos globales, se selecciona una región en función de la ubicación del cliente y de si la región tiene capacidad disponible, según la capacidad de destino del modo de balanceo de cargas. Dentro de una región, la capacidad de destino del modo de balanceo se usa para calcular las proporciones de cuántas solicitudes deben dirigirse a cada backend (grupo de instancias o NEG) de la región. Puedes usar la política de balanceo de cargas de servicio (
serviceLbPolicy
) y la configuración del backend preferido para influir en la selección de cualquier backend específico dentro de una región. Además, dentro de cada grupo de instancias o NEG, la política de balanceo de cargas (LocalityLbPolicy
) determina cómo se distribuye el tráfico en las instancias o extremos dentro del grupo.
- Duración
balanceadores de cargas de aplicaciones internos entre regiones balanceadores de cargas de aplicaciones externos regionales, y balanceadores de cargas de aplicaciones internos regionales,
la capacidad objetivo del modo de balanceo se usa para calcular las proporciones sobre cuántas solicitudes deben
ir a cada backend (grupo de instancias o NEG) en la región. Dentro de cada
grupo de instancias o NEG, la política de balanceo de cargas (
LocalityLbPolicy
) determina cómo se distribuye el tráfico en las instancias o extremos del grupo. Solo los El balanceador de cargas de aplicaciones interno regional admite el uso de la política de balanceo de cargas de servicio (serviceLbPolicy
) y la configuración de backend preferido para influir en la selección de cualquier backend específico dentro de una región.
Los balanceadores de cargas de red de proxy admiten los modos de balanceo CONNECTION
o UTILIZATION
para backends de grupo de instancias, el modo de balanceo CONNECTION
para NEG zonales con extremos GCE_VM_IP_PORT
, y el modo de balanceo CONNECTION
para los NEG híbridos (extremos NON_GCP_PRIVATE_IP_PORT
). Para cualquier otro tipo de backend compatible, se debe omitir el modo de balanceo.
Para los balanceadores de cargas de red de proxy externos globales, se selecciona una región en función de la ubicación del cliente y de si la región tiene capacidad disponible, según la capacidad de destino del modo de balanceo de cargas. Dentro de una región, la capacidad de destino del modo de balanceo se usa para calcular las proporciones de cuántas solicitudes deben dirigirse a cada backend (grupo de instancias o NEG) de la región. Puedes usar la política de balanceo de cargas de servicio (
serviceLbPolicy
) y la configuración del backend preferido para influir en la selección de cualquier backend específico dentro de una región. Además, dentro de cada grupo de instancias o NEG, la política de balanceo de cargas (LocalityLbPolicy
) determina cómo se distribuye el tráfico en las instancias o extremos dentro del grupo.Para los balanceadores de cargas de red de proxy internos entre regiones, primero se selecciona la región configurada. Dentro de una región, la capacidad de destino del modo de balanceo se usa para calcular las proporciones de cuántas solicitudes deben dirigirse a cada backend (grupo de instancias o NEG) de la región. Puedes usar la política de balanceo de cargas de servicio (
serviceLbPolicy
) y la configuración del backend preferido para influir en la selección de cualquier backend específico dentro de una región. Además, dentro de cada grupo de instancias o NEG, la política de balanceo de cargas (LocalityLbPolicy
) determina cómo se distribuye el tráfico en las instancias o extremos dentro del grupo.Para los balanceadores de cargas de red de proxy clásicos, se selecciona una región en función de la ubicación del cliente y si la región tiene capacidad disponible, según la capacidad de destino del modo de balanceo de cargas. Luego, dentro de una región, la capacidad de destino del modo de balanceo de cargas se usa para calcular las proporciones sobre cuántas solicitudes o conexiones deben ir a cada backend (grupo de instancias o NEG) en la región. Después de que el balanceador de cargas selecciona un backend, las solicitudes o conexiones se distribuyen según un algoritmo round robin entre las instancias de VM o los extremos de red dentro de cada backend individual.
- En los balanceadores de cargas de red del proxy externos regionales y los balanceadores de cargas de red del proxy internos regionales, la capacidad de destino del modo de balanceo de cargas se usa para calcular las proporciones de cuántas solicitudes deben dirigirse a cada backend (grupo de instancias o NEG). Dentro de cada grupo de instancias o NEG, la política de balanceo de cargas (
localityLbPolicy
) determina cómo se distribuye el tráfico en las instancias o extremos del grupo.
En la siguiente tabla, se resumen los modos de balanceo de cargas disponibles para cada combinación de balanceador de cargas y backend.
Balanceador de cargas | Backends | Modos de balanceo disponibles |
---|---|---|
Balanceador de cargas de aplicaciones | Grupos de instancias | RATE o UTILIZATION |
NEG zonales (extremos GCE_VM_IP_PORT ) |
RATE |
|
NEG híbridos (extremos NON_GCP_PRIVATE_IP_PORT ) |
RATE |
|
Balanceador de cargas de red de proxy
|
Grupos de instancias | CONNECTION o UTILIZATION |
NEG zonales (extremos GCE_VM_IP_PORT ) |
CONNECTION |
|
NEG híbridos (extremos |
CONNECTION |
|
Balanceador de cargas de red de transferencia | Grupos de instancias | CONNECTION |
NEG zonales (extremos GCE_VM_IP ) |
CONNECTION |
Si el uso promedio de todas las VM asociadas con un servicio de backend es inferior al 10%, Google Cloud puede preferir zonas específicas. Esto puede suceder cuando usas grupos de instancias regionales administrados, grupos de instancias administrados zonales en zonas diferentes y grupos de instancias zonales no administrados. Este desequilibrio zonal se resuelve de forma automática a medida que se envía más tráfico al balanceador de cargas.
Para obtener más información, consulta la página gcloud compute backend-services add-backend.
Capacidad de destino
Cada modo de balanceo tiene una capacidad de destino correspondiente, que define uno de los siguientes valores máximos de destino:
- Número de conexiones
- Frecuencia
- Uso de CPU
En cada modo de balanceo, la capacidad de destino no es un disyuntor. Un balanceador de cargas puede exceder el máximo en ciertas condiciones, por ejemplo, si todas las VM o los extremos de backend lo alcanzaron.
Modo de balanceo de conexiones
En el modo de balanceo CONNECTION
, la capacidad de destino define una cantidad máxima de destino de conexiones abiertas. Excepto por los balanceadores de cargas de red de transferencia internos y los balanceadores de cargas de red de transferencia externos, debes usar una de las siguientes opciones de configuración para especificar una cantidad máxima de conexiones de destino:
max-connections-per-instance
(por VM): Cantidad promedio de conexiones de destino para una sola VM.max-connections-per-endpoint
(por extremo en un NEG zonal): Cantidad promedio de conexiones de destino para un solo extremo.max-connections
(por NEG zonales y para grupos de instancias zonales): Cantidad promedio de conexiones de destino en todo el NEG o grupo de instancias. Para los grupos de instancias administrados regionales, usamax-connections-per-instance
en su lugar.
En la siguiente tabla, se muestra cómo el parámetro de capacidad de destino define los siguientes aspectos:
- La capacidad de destino de todo el backend
- La capacidad de destino esperada para cada instancia o extremo
Tipo de backend | Capacidad de destino | ||
---|---|---|---|
Si especificas | Capacidad completa del backend | Capacidad esperada por instancia o extremo | |
Grupo de instanciasN instancias,H en buen estado |
max-connections-per-instance=X
|
X × N
|
(X × N)/H
|
NEG zonalesN extremos,H en buen estado
|
max-connections-per-endpoint=X
|
X × N
|
(X × N)/H
|
Grupos de instancias (excepto los grupos de instancias administrados regionales) H instancias en buen estado
|
max-connections=Y
|
Y
|
Y/H
|
Como se ilustra, la configuración max-connections-per-instance
y max-connections-per-endpoint
son proxies para calcular una cantidad máxima de conexiones de destino en todo el grupo de instancias de VM o en el NEG zonal completo:
- En un grupo de instancias de VMs con instancias
N
, configurarmax-connections-per-instance=X
tiene el mismo significado que configurarmax-connections=X × N
. - En un NEG zonal con extremos
N
, la configuración demax-connections-per-endpoint=X
tiene el mismo significado que la opción de configuraciónmax-connections=X × N
.
Modo de balanceo de tarifas
Para el modo de balanceo RATE
, debes definir la capacidad de destino mediante uno de los siguientes parámetros:
max-rate-per-instance
(por VM): Proporciona una tasa promedio de solicitudes HTTP de destino para una sola VM.max-rate-per-endpoint
(por extremo en un NEG zonal): Proporciona una tasa promedio de solicitudes HTTP de destino para un solo extremo.max-rate
(por NEG zonales y para grupos de instancias zonales): Proporciona una tasa promedio de solicitudes HTTP de destino para todo el NEG o todo grupo de instancias. Para los grupos de instancias administrados regionales, usamax-rate-per-instance
en su lugar.
En la siguiente tabla, se muestra cómo el parámetro de capacidad de destino define los siguientes aspectos:
- La capacidad de destino de todo el backend
- La capacidad de destino esperada para cada instancia o extremo
Tipo de backend | Capacidad de destino | ||
---|---|---|---|
Si especificas | Capacidad completa del backend | Capacidad esperada por instancia o extremo | |
Grupo de instanciasN instancias,H en buen estado |
max-rate-per-instance=X
|
X × N
|
(X × N)/H
|
NEG zonalesN extremos,H en buen estado
|
max-rate-per-endpoint=X
|
X × N
|
(X × N)/H
|
Grupos de instancias (excepto los grupos de instancias administrados regionales) H instancias en buen estado
|
max-rate=Y
|
Y
|
Y/H
|
Como se ilustra, la configuración max-rate-per-instance
y max-rate-per-endpoint
son proxies para calcular una tasa máxima de solicitudes HTTP de destino en todo el grupo de instancias o en el NEG zonal completo:
- En un grupo de instancias con instancias
N
, configurarmax-rate-per-instance=X
tiene el mismo significado que configurarmax-rate=X × N
. - En un NEG zonal con extremos
N
, la configuración demax-rate-per-endpoint=X
tiene el mismo significado que la opción de configuraciónmax-rate=X × N
.
Modo de balanceo de uso
El modo de balanceo UTILIZATION
no tiene una capacidad de destino requerida. Tienes una serie de opciones que dependen del tipo de backend, como se resume en la tabla de la sección siguiente.
La capacidad de destino max-utilization
solo se puede especificar por grupo de instancias y no se puede aplicar a una VM específica del grupo.
El modo de balanceo UTILIZATION
no tiene una capacidad de destino requerida. Cuando usas la consola de Google Cloud para agregar un grupo de instancias de backend a un servicio de backend, la consola de Cloud establece el valor de max-utilization
en 0.8 (80%) si el modo de balanceo UTILIZATION
está seleccionado. Además de max-utilization
, el modo de balanceo UTILIZATION
admite capacidades de destino más complejas, como se resume en la tabla en la siguiente sección.
Cambia el modo de balanceo de un balanceador de cargas
En algunos balanceadores de cargas o sus configuraciones, no puedes cambiar el modo de balanceo porque el servicio de backend tiene solo un modo de balanceo posible. Para otros, según el backend usado, puedes cambiar el modo de balanceo porque hay más de un modo disponible para esos servicios de backend.
A fin de ver qué modos de balanceo son compatibles para cada balanceador de cargas, consulta Tabla: Modos de balanceo disponibles para cada balanceador de cargas.
Modos de balanceo y configuración de la capacidad objetivo
En el caso de los productos que admiten una especificación de capacidad objetivo, esta no es un disyuntor. Cuando se alcanza el máximo de capacidad objetivo configurado en una zona determinada, las solicitudes o conexiones nuevas se distribuyen a otras zonas que no están procesando solicitudes o conexiones con la capacidad objetivo. Si todas las zonas alcanzaron la capacidad objetivo, las solicitudes o conexiones nuevas se distribuyen por desbordamiento.
Balanceadores de cargas de aplicaciones y Cloud Service Mesh
En esta tabla, se enumeran las combinaciones de modo de balanceo y capacidad objetivo disponibles para los balanceadores de cargas de aplicaciones y Cloud Service Mesh.
Tipo de backend | Modo de balanceo | Especificación de la capacidad objetivo |
---|---|---|
Grupos de instancias
|
RATE |
Debes especificar uno de los siguientes:
|
UTILIZATION |
De manera opcional, puedes especificar una de las siguientes opciones:
|
|
NEG zonales
NEG híbridos
|
RATE |
Debes especificar uno de los siguientes:
|
Balanceadores de cargas de red de proxy
En esta tabla, se enumeran las combinaciones de modo de balanceo y capacidad objetivo disponibles para los balanceadores de cargas de red de proxy.
Tipo de backend | Modo de balanceo | Especificación de la capacidad objetivo |
---|---|---|
Grupos de instancias
|
CONNECTION |
Debes especificar uno de los siguientes:
|
UTILIZATION |
De manera opcional, puedes especificar una de las siguientes opciones:
|
|
NEG zonales
NEG híbridos
|
CONNECTION |
Debes especificar uno de los siguientes:
|
Balanceadores de cargas de red de transferencia
En esta tabla, se enumeran las combinaciones de modo de balanceo y capacidad objetivo disponibles para los balanceadores de cargas de red de transferencia.
Tipo de backend | Modo de balanceo | Especificación de la capacidad objetivo |
---|---|---|
Grupos de instancias
|
CONNECTION |
No puedes especificar una cantidad objetivo máxima de conexiones. |
NEG zonales
|
CONNECTION |
No puedes especificar una cantidad objetivo máxima de conexiones. |
Escalador de capacidad
Usa el escalador de capacidad para escalar la capacidad de destino (uso máximo, tasa máxima o cantidad máxima de conexiones) sin cambiar la capacidad de destino.
Para ver la documentación de referencia de Google Cloud, consulta lo siguiente:
- Google Cloud CLI: capacidad de escalamiento
- API:
Puedes ajustar el escalador de capacidad para escalar la capacidad de destino efectiva sin cambiar de forma explícita uno de los parámetros --max-*
.
Puedes configurar el escalador de capacidad con cualquiera de estos valores:
- El valor predeterminado es
1
, lo que significa que el grupo entrega hasta el 100% de su capacidad configurada (segúnbalancingMode
). - Un valor de
0
significa que el grupo se desvía por completo y ofrece el 0% de su capacidad disponible. No puedes establecer una configuración de0
cuando solo hay un backend conectado al servicio de backend. - Un valor de
0.1
(10%) a1.0
(100%).
En los siguientes ejemplos, se demuestra cómo funciona el escalador de capacidad junto con la configuración de capacidad objetivo.
Si el modo de balanceo es
RATE
,max-rate
se configura como80
RPS y el escalador de capacidad1.0
, la capacidad disponible también es80
RPS.Si el modo de balanceo es
RATE
,max-rate
se establece en80
RPS y el escalador en0.5
, la capacidad disponible es40
RPS (0.5 times 80
).Si el modo de balanceo es
RATE
,max-rate
se establece en80
RPS y el escalador en0.0
, y la capacidad disponible es cero (0
).
Política de balanceo de cargas de servicios
Una política de balanceo de cargas de servicio (serviceLbPolicy
) es un recurso asociado con el servicio de backend del balanceador de cargas. Te permite personalizar los parámetros que influyen en cómo se distribuye el tráfico dentro de los backends asociados con un servicio de backend:
- Personaliza el algoritmo de balanceo de cargas que se usa para determinar cómo se distribuye el tráfico entre regiones o zonas
- Habilita el vaciado de capacidad automática para que el balanceador de cargas pueda vaciar rápidamente el tráfico de los backends en mal estado.
Además, puedes designar backends específicos como backends preferidos. Estos backends deben usarse en toda su capacidad (es decir, la capacidad objetivo especificada por el modo de balanceo del backend) antes de que se envíen las solicitudes a los backends restantes.
Para obtener más información, consulta Optimizaciones avanzadas del balanceo de cargas con una política de balanceo de cargas de servicios.
Cloud Service Mesh y distribución de tráfico
Cloud Service Mesh también usa recursos de servicio de backend. En particular,
Cloud Service Mesh usa servicios de backend cuyo esquema de balanceo de cargas es
INTERNAL_SELF_MANAGED
. Para un servicio de backend interno autoadministrado, la distribución de tráfico se basa en la combinación de un modo de balanceo de cargas y una política de balanceo de cargas. El servicio de backend dirige el tráfico a un backend según el modo de balanceo del backend. Luego, Cloud Service Mesh distribuye
el tráfico según una política de balanceo de cargas.
Los servicios de backend internos autoadministrados son compatibles con los siguientes modos de balanceo:
UTILIZATION
, si todos los backends son grupos de instanciasRATE
, si todos los backends son grupos de instancias o NEG zonales
Si eliges el modo de balanceo RATE
, debes especificar una tasa máxima, una tasa máxima por instancia o una tasa máxima por extremo.
Para obtener más información acerca de Cloud Service Mesh, consulta Conceptos de Cloud Service Mesh.
Subconjuntos de backend
La subdivisión de backends es una función opcional que mejora el rendimiento y la escalabilidad mediante la asignación de un subconjunto de backends a cada una de las instancias de proxy.
La subdivisión de backends es compatible con lo siguiente:
- Balanceador de cargas de aplicaciones interno regional
- Balanceador de cargas de red de transferencia interno
Subconjuntos de backends para balanceadores de cargas de aplicaciones internos regionales
El balanceador de cargas de aplicaciones interno entre regiones no admite la subdivisión de backends.Para los balanceadores de cargas de aplicaciones internos regionales, la subdivisión de backends asigna automáticamente solo una subdivisión de los backends dentro del servicio de backend regional a cada instancia de proxy. De forma predeterminada, cada instancia de proxy abre conexiones con todos los backends dentro de un servicio de backend. Cuando la cantidad de instancias de proxy y los backends son conexiones grandes de apertura a todos los backends, puede haber problemas de rendimiento.
Mediante la habilitación del subconjunto, cada proxy solo abre conexiones a un subconjunto de backends, lo que reduce la cantidad de conexiones que se mantienen abiertas a cada backend. Reducir la cantidad de conexiones abiertas a cada backend puede mejorar el rendimiento de los backends y los proxies.
En el siguiente diagrama, se muestra un balanceador de cargas con dos proxies. Sin la subconfiguración de backend, el tráfico de ambos proxies se distribuye a todos los backends en el servicio de backend 1. Con el subconjunto del backend habilitado, el tráfico de cada proxy se distribuye a un subconjunto de los backends. El tráfico del proxy 1 se distribuye a los backends 1 y 2, y el tráfico del proxy 2 se distribuye a los backends 3 y 4.
Además, puedes definir mejor el tráfico del balanceo de cargas en los backends si configuras la política localityLbPolicy
.
Para obtener más información, consulta Políticas de tráfico.
Si deseas leer sobre la configuración de los subconjuntos de backends para los balanceadores de cargas de aplicaciones internos, consulta Configura los subconjuntos de backends.
Advertencias relacionadas con los subconjuntos de backends para el balanceador de cargas de aplicaciones interno
- Aunque los subconjuntos de backend están diseñados para garantizar que todas las instancias de backend se mantengan bien usadas, pueden generar sesgos en la cantidad de tráfico que recibe cada backend. Se recomienda configurar
localityLbPolicy
enLEAST_REQUEST
para los servicios de backend sensibles al balanceo de cargas de backend. - Si se habilita o se inhabilita la subdivisión, se interrumpen las conexiones existentes.
- La subdivisión de backends requiere que la afinidad de sesión sea
NONE
(un hash de 5 tuplas). Otras opciones de afinidad de sesión solo se pueden usar si la subdivisión de backends está inhabilitada. Los valores predeterminados de las marcas--subsetting-policy
y--session-affinity
sonNONE
, y solo uno de ellos a la vez se puede establecer en un valor diferente.
Subconjuntos de backends para el balanceador de cargas de red de transferencia interno
Los subconjuntos de backends para los balanceadores de cargas de red de transferencia internos te permiten escalar tu balanceador de cargas de red de transferencia interno a fin de admitir una mayor cantidad de instancias de VM de backend por servicio de backend interno.
Para obtener información sobre cómo la subdivisión afecta este límite, consulta la sección “Servicios de backend” de las cuotas y los límites de recursos del balanceo de cargas.
De forma predeterminada, la subdivisión está inhabilitada, lo que limita el servicio de backend a una distribución de hasta 250 instancias de backend o extremos. Si tu servicio de backend necesita admitir más de 250 backends, puedes habilitar la subdivisión. Cuando se habilita la subdivisión, se selecciona un subconjunto de instancias de backend para cada conexión de cliente.
En el siguiente diagrama, se muestra un modelo reducido de la diferencia entre estos dos modos de operación.
Sin la subdivisión, el conjunto completo de backends en buen estado se usa mejor, y las conexiones de clientes nuevas se distribuyen entre todos los backends en buen estado según la distribución de tráfico. La subposición impone restricciones de balanceo de cargas, pero permite que el balanceador de cargas admita más de 250 backends.
Para obtener instrucciones de configuración, consulta Subdivisión.
Advertencias relacionadas con los subconjuntos de backends para el balanceador de cargas de red de transferencia interno
- Cuando la subdivisión está habilitada, no todos los backends recibirán tráfico de un remitente determinado, incluso cuando la cantidad de backends sea pequeña.
- Para obtener la cantidad máxima de instancias de backend cuando los subconjuntos están habilitados, consulta la página de cuotas.
- Solo la afinidad de sesión de 5 tuplas es compatible con la subdivisión.
- La duplicación de paquetes no es compatible con la subdivisión.
- Si se habilita o se inhabilita la subdivisión, se interrumpen las conexiones existentes.
- Si los clientes locales necesitan acceder a un balanceador de cargas de red de transferencia interno, los subconjuntos pueden reducir de forma sustancial la cantidad de backends que reciben conexiones de tus clientes locales. Esto se debe a que la región del túnel de Cloud VPN o el adjunto de VLAN de Cloud Interconnect determina el subconjunto de backends del balanceador de cargas. Todos los extremos de Cloud VPN y Cloud Interconnect en una región específica usan el mismo subconjunto. Se usan diferentes subconjuntos en diferentes regiones.
Precios de la división de backend
No se aplican cargos por el uso de división de backend. Para obtener más información, consulta Todos los precios de herramientas de redes.
Afinidad de sesión
La afinidad de sesión te permite controlar cómo el balanceador de cargas selecciona backends para conexiones nuevas de manera predecible, siempre que la cantidad de backends en buen estado se mantenga constante. Esto es útil para las aplicaciones que necesitan que varias solicitudes de un usuario determinado se dirijan al mismo backend o extremo. Estas aplicaciones incluyen servidores con estado que usan la publicación de anuncios, los juegos o los servicios con almacenamiento en caché interno intenso.
Los balanceadores de cargas de Google Cloud proporcionan afinidad de sesión en función del mejor esfuerzo. Factores como cambiar los estados de la verificación de estado del backend, agregar o quitar backends, cambios en las ponderaciones del backend (incluida la habilitación o inhabilitación del balanceo ponderado) o cambios en el contenido total del backend, según la medición del modo de balanceo, pueden interrumpir la afinidad de sesión.
El balanceo de cargas con afinidad de sesión funciona bien cuando hay una distribución razonable grande de conexiones únicas. Razonablemente grande significa al menos varias veces la cantidad de backends. Probar un balanceador de cargas con una cantidad pequeña de conexiones no dará como resultado una representación precisa de la distribución de las conexiones de cliente entre backends.
De forma predeterminada, todos los balanceadores de cargas de Google Cloud seleccionan backends mediante un hash quíntuple (--session-affinity=NONE
), de la siguiente manera:
- Dirección IP de origen del paquete
- El puerto de origen del paquete (si está presente en el encabezado del paquete)
- Dirección IP de destino del paquete
- El puerto de destino del paquete (si está presente en el encabezado del paquete)
- Protocolo del paquete
Para los balanceadores de cargas de paso, las conexiones nuevas se distribuyen a extremos o instancias de backend en buen estado (en el grupo activo, si se configura una política de conmutación por error). Puedes controlar lo siguiente:
- Indica si las conexiones establecidas persisten en backends en mal estado. Para obtener detalles, consulta Persistencia de la conexión en backends en mal estado en la documentación del balanceador de cargas de red de transferencia interno y Persistencia de la conexión en backends en mal estado en la documentación del balanceador de cargas de red de transferencia externo basado en servicios de backend.
- Si las conexiones establecidas persisten durante la conmutación por error y por recuperación, si se configura una política de conmutación por error. Para obtener más información, consulta Vaciado de conexiones en la conmutación por error y por recuperación en la documentación del balanceador de cargas de red de transferencia interno y Vaciado de conexiones en la conmutación por error y por recuperación en la documentación del balanceador de cargas de red externo de transferencia externo basado en servicios de backend.
- La duración de las conexiones establecidas cuando se quita un backend del balanceador de cargas. Para obtener más información, consulta Habilita el vaciado de conexiones.
Para los balanceadores de cargas basados en proxy, siempre que la cantidad de instancias o extremos de backend en buen estado permanezca constante y siempre que la instancia o el extremo de backend seleccionado no esté al máximo de su capacidad, las solicitudes o conexiones posteriores van al mismo extremo o VM de backend. La capacidad de destino del modo de balanceo determina cuándo el backend alcanza el máximo de su capacidad.
En la siguiente tabla, se muestran las opciones de afinidad de sesión compatibles con cada producto:
Producto | Opciones de afinidad de sesión |
---|---|
También ten en cuenta lo siguiente:
|
|
Balanceador de cargas de aplicaciones clásico |
|
También ten en cuenta lo siguiente:
|
|
Balanceador de cargas de red de transferencia interno |
Para obtener información específica sobre el balanceador de cargas de red de transferencia interno y la afinidad de sesión, consulta la descripción general del balanceador de cargas de red de transferencia interna. |
Balanceador de cargas de red de transferencia externo* |
Para obtener información específica sobre el balanceador de cargas de red de transferencia externo y la afinidad de sesión, consulta la descripción general del balanceador de cargas de red de transferencia externo de TCP/UDP externo. |
|
|
Cloud Service Mesh |
|
* En esta tabla se documentan los afinidades de sesión que admiten los balanceadores de cargas de red de transferencia externos basados en servicios de backend.
Los balanceadores de cargas de red de transferencia externos basados en grupos de destino no usan servicios de backend. En su lugar, debes establecer la afinidad de sesión para los balanceadores de cargas de red de transferencia externo a través del parámetro sessionAffinity
en grupos de destino.
Ten en cuenta lo siguiente cuando configures la afinidad de sesión:
No uses la afinidad de sesión para fines de autenticación o seguridad. La afinidad de sesión está diseñada para interrumpirse cada vez que cambia la cantidad de backends activos y en buen estado. Las actividades que generan la interrupción de la afinidad de sesión incluyen las siguientes:
- Agregar grupos de instancias de backend o NEG al servicio de backend
- Quita grupos de instancias de backend o NEG del servicio de backend
- Agregar instancias a un grupo de instancias de backend existente (lo que ocurre de forma automática cuando habilitas el ajuste de escala automático con grupos de instancias administrados)
- Quitar instancias de un grupo de instancias de backend existente (lo que ocurre de forma automática cuando habilitas el ajuste de escala automático en grupos de instancias administrados)
- Agregar extremos a un NEG de backend existente
- Quitar extremos de un NEG de backend existente
- Cuando un backend en buen estado falla su verificación de estado y queda en mal estado
- Cuando un backend en mal estado pasa su verificación de estado y queda en buen estado
- Para los balanceadores de cargas de paso: durante la conmutación por error y por recuperación, si se configura una política de conmutación por error
- Para los balanceadores de cargas de proxy, cuando un backend alcanza o supera su máxima capacidad
No se recomienda usar una afinidad de sesión distinta de
None
con el modo de balanceoUTILIZATION
. Esto se debe a que los cambios en el uso de la instancia pueden hacer que el servicio de balanceo de cargas dirija nuevas solicitudes o conexiones a VM de backend que estén menos completas. Esto interrumpe la afinidad de sesión. En su lugar, usa el modo de balanceoRATE
oCONNECTION
para reducir la posibilidad de interrumpir la afinidad de sesión. Para obtener más información, consulta Pérdida de afinidad de sesión.En el caso de los balanceadores de cargas HTTP(S) internos y externos, la afinidad de sesión puede interrumpirse cuando el extremo o la instancia previstos superan el máximo establecido del modo de balanceo. Considera el siguiente ejemplo:
- Un balanceador de cargas tiene un NEG y tres extremos.
- Cada extremo tiene una capacidad objetivo de 1 RPS.
- El modo de balanceo es
RATE
. - En este momento, cada extremo procesa las solicitudes 1.1, 0.8 y 1.6 RPS, respectivamente.
- Cuando una solicitud HTTP con afinidad para el último extremo llega al balanceador de cargas, la afinidad de sesión reclama el extremo que se procesa a 1.6 RPS.
- La solicitud nueva puede ir al extremo central con 0.8 RPS.
Los valores predeterminados de las marcas
--session-affinity
y--subsetting-policy
sonNONE
, y solo uno de ellos a la vez se puede establecer en un valor diferente.
En las siguientes secciones, se analizan los diferentes tipos de afinidad de sesión.
IP de cliente sin afinidad de destino
La afinidad de sesión de IP de cliente, sin destino (CLIENT_IP_NO_DESTINATION
) es un hash de una tupla que se basa solo en la dirección IP de origen de cada paquete recibido. Esta afinidad de sesión solo está disponible para los balanceadores de cargas de red de transferencia internos.
Esta opción puede ser útil en situaciones en las que necesitas que la misma VM de backend procese todos los paquetes de un cliente, en función solo de la dirección IP de origen del paquete, sin importar la dirección IP de destino del paquete. Estas situaciones suelen surgir cuando un balanceador de cargas de red de transferencia interno es el próximo salto de una ruta estática. Para obtener más detalles, consulta Afinidad de sesión y balanceadores de cargas de red de transferencia internos de próximo salto.
Afinidad de IP de cliente
La afinidad de sesión de IP de cliente (CLIENT_IP
) es un hash de dos tuplas creado a partir de las direcciones IP de origen y destino del paquete. La afinidad de sesión de IP de cliente está disponible para todos los balanceadores de cargas de Google Cloud que usan servicios de backend.
Los balanceadores de cargas de red de transferencia externos llaman a esta opción de afinidad de sesión IP de cliente, IP de destino.
Cuando uses la afinidad de IP de cliente, ten en cuenta lo siguiente:
La dirección IP de destino del paquete solo es la misma que la dirección IP de la regla de reenvío del balanceador de cargas si el paquete se envía directamente al balanceador de cargas.
Los paquetes que se enrutan a un balanceador de cargas de red de transferencia interno de próximo salto a través de una ruta estática tienen direcciones IP de destino que no coinciden con la dirección IP de la regla de reenvío del balanceador de cargas. Para obtener detalles importantes, consulta Afinidad de sesión y balanceadores de cargas de red de transferencia internos de próximo salto.
Es posible que la dirección IP de origen del paquete no coincida con una dirección IP asociada con el cliente original si un sistema de proxy o NAT intermedio procesa el paquete antes de entregarlo a un balanceador de cargas de Google Cloud. En situaciones en las que muchos clientes comparten la misma dirección IP de origen efectiva, es posible que algunas VMs de backend reciban más conexiones o solicitudes que otras.
Afinidad de cookie generada
Cuando usas la afinidad basada en cookies generadas, el balanceador de cargas incluye una cookie HTTP en el encabezado de respuesta Set-Cookie
de una solicitud HTTP inicial.
El nombre de la cookie generada varía según el tipo de balanceador de cargas. Los siguientes productos admiten cookies generadas:
Producto | Nombre de cookie |
---|---|
Balanceadores de cargas de aplicaciones externos globales | GCLB |
Balanceadores de cargas de aplicaciones clásicos | GCLB |
Balanceadores de cargas de aplicaciones regionales externos | GCILB |
Balanceadores de cargas de aplicaciones internos entre regiones | GCILB |
Balanceadores de cargas de aplicaciones internos regionales | GCILB |
Cloud Service Mesh | GCILB |
El atributo de ruta de la cookie generada siempre es una barra diagonal (/
), por lo que se aplica a todos los servicios de backend en el mismo mapa de URL, siempre y cuando los otros servicios de backend también usen la afinidad de cookies generada.
Puedes configurar el tiempo de actividad (TTL) de la cookie entre 0
y 86400
segundos inclusive. Debido a que una cookie generada que tiene un TTL de cero segundos
vence de inmediato, la cookie solo es útil como identificador de sesión
único; no proporciona ninguna afinidad para las solicitudes HTTP posteriores.
Cuando el cliente incluye la cookie de afinidad de sesión generada en el encabezado de solicitud Cookie
de solicitudes HTTP posteriores, el balanceador de cargas dirige esas solicitudes a la misma instancia o extremo de backend, siempre que la cookie de afinidad de sesión siga siendo válida. Para ello, se asigna el valor de la cookie a un índice que hace referencia a una instancia de backend o un extremo específicos, y se garantiza que se cumplan los requisitos de afinidad de sesión de la cookie generada.
Para usar la afinidad de cookie generada, configura el siguiente modo de balanceo y la configuración de localityLbPolicy
:
- Para los grupos de instancias de backend, usa el modo de balanceo
RATE
. - Para el
localityLbPolicy
del servicio de backend, usaRING_HASH
oMAGLEV
. Si no configuraslocalityLbPolicy
de forma explícita, el balanceador de cargas usaMAGLEV
como valor predeterminado implícito.
Además, la afinidad de cookies generada requiere que la cantidad de instancias o extremos de backend configurados y en buen estado permanezca constante en el servicio de backend.
La afinidad de sesión de algunos clientes se interrumpe por los siguientes motivos:
Cambia la cantidad de instancias o extremos de backend configurados y en buen estado. Agregar o quitar instancias o extremos de backend afecta el cálculo de los valores de índice. Si cambia la cantidad de valores de índice, la afinidad de la sesión puede fallar porque un hash podría asignarse a un índice diferente, o un índice podría hacer referencia a un backend diferente, o ambos.
La cantidad de instancias o extremos de backend configurados y en buen estado cambia cuando ocurre lo siguiente:
- Agregas grupos de instancias de backend o NEG no vacíos al servicio de backend.
- Quitas grupos de instancias de backend o NEG existentes del servicio de backend.
- Puedes agregar instancias a grupos de instancias de backend existentes o quitarlas de ellos en el servicio de backend.
- Agregas extremos a los NEG de backend existentes o quitas extremos de ellos en el servicio de backend.
- Las instancias o los extremos existentes fallan en las verificaciones de estado y pasan de estar en buen estado a estar en mal estado.
- Las instancias o los extremos existentes pasan las verificaciones de estado y pasan de estar en mal estado a estar en buen estado.
- Combinaciones de dos o más de los anteriores.
Una instancia o un extremo de backend seleccionados anteriormente se llena cuando alcanza su capacidad objetivo.
Afinidad de campo de encabezado
Los siguientes balanceadores de cargas usan la afinidad de campo de encabezado:
- Cloud Service Mesh
- Balanceador de cargas de aplicaciones interno entre regiones
- Balanceador de cargas de aplicaciones externo global
- Balanceador de cargas de aplicaciones externo regional
- Balanceador de cargas de aplicaciones interno regional
La afinidad de campo de encabezado es compatible cuando se cumplen las siguientes condiciones:
- La política de localidad del balanceo de cargas es RING_HASH o MAGLEV.
- El
consistentHash
del servicio de backend especifica el nombre del encabezado HTTP (httpHeaderName
).
Para obtener información sobre qué productos admiten la afinidad de campo de encabezado, consulta Tabla: Configuración de afinidad de sesión compatible.
Afinidad de cookie HTTP
Cuando usas la afinidad basada en cookies HTTP, el balanceador de cargas incluye una cookie HTTP en el encabezado de respuesta Set-Cookie
de una solicitud HTTP inicial. Especifica el nombre, la ruta de acceso y el tiempo de actividad (TTL) de la cookie.
Los siguientes productos admiten la afinidad basada en cookies HTTP:
- Balanceadores de cargas de aplicaciones externos globales
- Balanceadores de cargas de aplicaciones clásicos
- Balanceadores de cargas de aplicaciones regionales externos
- Balanceadores de cargas de aplicaciones internos entre regiones
- Balanceadores de cargas de aplicaciones internos regionales
- Cloud Service Mesh
Puedes configurar los valores de TTL de la cookie. Los valores de TTL válidos están entre los siguientes:
0
y315576000000
(inclusive), si se especifican en segundos0
y999999999
(inclusive), si se especifican en nanosegundos
Debido a que una cookie HTTP que tiene un TTL de cero segundos vence de inmediato, la cookie solo es útil como identificador de sesión único; no proporciona ninguna afinidad para las solicitudes HTTP posteriores.
Cuando el cliente incluye la cookie de afinidad de sesión HTTP en el encabezado de solicitud Cookie
de solicitudes HTTP posteriores, el balanceador de cargas dirige esas solicitudes a la misma instancia o extremo de backend, siempre que la cookie de afinidad de sesión siga siendo válida. Para ello, se asigna el valor de la cookie a un índice que hace referencia a una instancia de backend o un extremo específicos, y se garantiza que se cumplan los requisitos de afinidad de sesión de la cookie generada.
Para usar la afinidad de cookies HTTP, configura el siguiente modo de equilibrio y la configuración de localityLbPolicy
:
- Para los grupos de instancias de backend, usa el modo de balanceo
RATE
. - Para el
localityLbPolicy
del servicio de backend, usaRING_HASH
oMAGLEV
. Si no configuraslocalityLbPolicy
de forma explícita, el balanceador de cargas usaMAGLEV
como valor predeterminado implícito.
Además, la afinidad de cookies HTTP requiere que la cantidad de instancias o extremos de backend configurados y en buen estado permanezca constante en el servicio de backend. La afinidad de sesión de algunos clientes se interrumpe por los siguientes motivos:
Cambia la cantidad de instancias o extremos de backend configurados y en buen estado. Agregar o quitar instancias o extremos de backend afecta el cálculo de los valores de índice. Si cambia la cantidad de valores de índice, la afinidad de la sesión puede fallar porque un hash podría asignarse a un índice diferente, o un índice podría hacer referencia a un backend diferente, o ambos.
La cantidad de instancias o extremos de backend configurados y en buen estado cambia cuando ocurre lo siguiente:
- Agregas grupos de instancias de backend o NEG no vacíos al servicio de backend.
- Quitas grupos de instancias de backend o NEG existentes del servicio de backend.
- Puedes agregar instancias a grupos de instancias de backend existentes o quitarlas de ellos en el servicio de backend.
- Agregas extremos a los NEG de backend existentes o quitas extremos de ellos en el servicio de backend.
- Las instancias o los extremos existentes fallan en las verificaciones de estado y pasan de estar en buen estado a estar en mal estado.
- Las instancias o los extremos existentes pasan las verificaciones de estado y pasan de estar en mal estado a estar en buen estado.
- Combinaciones de dos o más de los anteriores.
Una instancia o un extremo de backend seleccionados anteriormente se llena cuando alcanza su capacidad objetivo.
Afinidad de sesión basada en cookies con estado
Cuando usas la afinidad basada en cookies con estado, el balanceador de cargas incluye una cookie HTTP en el encabezado de respuesta Set-Cookie
de una solicitud HTTP inicial.
Especifica el nombre, la ruta de acceso y el tiempo de actividad (TTL) de la cookie.
Los siguientes balanceadores de cargas admiten la afinidad basada en cookies con estado:
- Balanceadores de cargas de aplicaciones externos globales
- Balanceadores de cargas de aplicaciones regionales externos
- Balanceadores de cargas de aplicaciones internos entre regiones
- Balanceadores de cargas de aplicaciones internos regionales
Puedes configurar los valores de TTL de la cookie. Los valores de TTL válidos están entre los siguientes:
0
y315576000000
(inclusive), si se especifican en segundos0
y999999999
(inclusive), si se especifican en nanosegundos
Debido a que una cookie que tiene un TTL de cero segundos vence de inmediato, esta solo es útil como identificador de sesión único; no proporciona ninguna afinidad para las solicitudes HTTP posteriores.
El valor de la cookie identifica una instancia o un extremo de backend seleccionado mediante la codificación de la instancia o el extremo seleccionados en el valor. Mientras la cookie sea válida, si el cliente incluye la cookie de afinidad de sesión en el encabezado de solicitud Cookie
de las solicitudes HTTP posteriores, el balanceador de cargas dirige esas solicitudes a la instancia o el extremo de backend seleccionados.
La afinidad basada en cookies con estado no tiene requisitos específicos para el modo de balanceo ni para localityLbPolicy
.
La afinidad basada en cookies con estado requiere que la instancia o el extremo de backend seleccionado permanezcan configurados y en buen estado. La afinidad de sesión de algunos clientes se interrumpe por los siguientes motivos:
- Se quita del servicio de backend el grupo de instancias de backend o el NEG que contiene la instancia o el extremo seleccionados.
- La instancia o el extremo seleccionados se quitan de su grupo de instancias de backend o NEG.
- La instancia o el extremo seleccionados fallan en las verificaciones de estado.
Pérdida de la afinidad de sesión
Sin importar el tipo de afinidad elegida, un cliente puede perder afinidad con un backend en las siguientes situaciones:
- Si el grupo de instancias de backend o el NEG zonal se quedan sin capacidad, según lo define la capacidad de destino del modo de balanceo. En esta situación, Google Cloud dirige el tráfico a un grupo de instancias de backend o un NEG zonal diferente, que pueden estar en una zona distinta. Puedes mitigar esto si te aseguras de especificar la capacidad de destino correcta para cada backend según tus propias pruebas.
- El ajuste de escala automático agrega o quita instancias de un grupo de instancias administrado. Cuando esto sucede, la cantidad de instancias en el grupo de instancias cambia, por lo que el servicio de backend vuelve a calcular los hash para la afinidad de sesión. Para mitigar esto, asegúrate de que el tamaño mínimo del grupo de instancias administrado pueda manejar una carga típica. El ajuste de escala automático solo se realiza durante aumentos inesperados en la carga.
- Si un extremo o una VM de backend en un NEG fallan en las verificaciones de estado, el balanceador de cargas dirige el tráfico a otro backend en buen estado. Consulta la documentación de cada balanceador de cargas de Google Cloud para obtener detalles sobre cómo se comporta el balanceador de cargas cuando todos sus backends fallan en las verificaciones de estado.
- Cuando el modo de balanceo
UTILIZATION
está activo en los grupos de instancias de backend, la afinidad de sesión se interrumpe debido a cambios en el uso del backend. Puedes mitigar esto mediante el uso de los modos de balanceoRATE
oCONNECTION
, el que sea compatible con el tipo de balanceador de cargas.
Cuando uses balanceadores de cargas de aplicaciones externos o balanceadores de cargas de red del proxy externos, ten en cuenta los siguientes puntos adicionales:
- Si la ruta de acceso de enrutamiento de un cliente en Internet a Google cambia entre solicitudes o conexiones, es posible que se seleccione otro Google Front End (GFE) como proxy. Esto puede interrumpir la afinidad de sesión.
- Cuando usas el modo de balanceo
UTILIZATION
, en particular si no tienes una capacidad máxima de destino definida, es probable que la afinidad de sesión se interrumpa cuando el tráfico al balanceador de cargas sea bajo. Cambia al modo de balanceoRATE
oCONNECTION
, según lo admita el balanceador de cargas elegido.
Tiempo de espera del servicio de backend
La mayoría de los balanceadores de cargas de Google Cloud tienen un tiempo de espera del servicio de backend. El valor predeterminado es 30 segundos. El rango completo de valores de tiempo de espera permitidos es de 1 a 2,147,483,647 segundos.
Para los balanceadores de cargas de aplicaciones externos y los balanceadores de cargas de aplicaciones internos que usan el protocolo HTTP, HTTPS o HTTP/2, el tiempo de espera del servicio de backend es un tiempo de espera de solicitudes y respuestas para el tráfico HTTP(S).
A fin de obtener más detalles sobre el tiempo de espera del servicio de backend para cada balanceador de cargas, consulta los siguientes vínculos:
- Para los balanceadores de cargas de aplicaciones externos globales y los balanceadores de cargas de aplicaciones externos regionales , consulta Tiempos de espera y reintentos.
- Para los balanceadores de cargas de aplicaciones internos, consulta Tiempos de espera y reintentos.
Para los balanceadores de cargas de red del proxy externos, el tiempo de espera es de inactividad. Para permitir más o menos tiempo antes de que se borre la conexión, cambia el valor del tiempo de espera. Este tiempo de espera de inactividad también se usa para las conexiones de WebSocket.
Para los balanceadores de cargas de red de transferencia internos y los balanceadores de cargas de red de transferencia externos, puedes establecer el valor del tiempo de espera del servicio de backend con
gcloud
o la API, pero se ignorará el valor. El tiempo de espera del servicio de backend no significa nada para estos balanceadores de cargas de paso.
- Para Cloud Service Mesh, el campo del tiempo de espera del servicio de backend (especificado con
timeoutSec
) no es compatible con los servicios de gRPC sin proxy. Para esos servicios, configura el tiempo de espera del servicio de backend mediante el campomaxStreamDuration
. Esto se debe a que gRPC no admite la semántica detimeoutSec
, que especifica la cantidad de tiempo que se debe esperar para que un backend muestre una respuesta completa después de enviar la solicitud. El tiempo de espera de gRPC especifica el tiempo que se debe esperar desde el comienzo de la transmisión hasta que la respuesta se haya procesado por completo, incluidos todos los reintentos.
Verificaciones de estado
Cada servicio de backend cuyos backends son grupos de instancias o NEG zonales debe tener una verificación de estado asociada. Los servicios de backend que usan un NEG sin servidores o un NEG de Internet global como backend deben tener un backend no hace referencia a una verificación de estado.
Cuando creas un balanceador de cargas mediante la consola de Google Cloud, puedes crear la verificación de estado, si es necesaria, cuando creas el balanceador de cargas, o puedes hacer referencia a una verificación de estado existente.
Cuando creas un servicio de backend mediante backends de grupo de instancias o de NEG zonales con Google Cloud CLI o la API, debes hacer referencia a una verificación de estado existente. Consulta la guía de balanceadores de cargas en la Descripción general de las verificaciones de estado para obtener detalles sobre el tipo y el alcance de la verificación de estado requerida.
Para obtener más información, lee los siguientes documentos:
- Descripción general de las verificaciones de estado
- Crea verificaciones de estado
- Página de verificación de estado de
gcloud
- Página de verificación de estado de la API de REST
Funciones adicionales habilitadas en el recurso de servicio de backend
Los siguientes servicios de backend admiten las siguientes funciones opcionales.
Cloud CDN
Cloud CDN usa la red perimetral global de Google para entregar contenido más cerca de los usuarios, lo que acelera los sitios web y aplicaciones. Cloud CDN está habilitado en los servicios de backend que usan los balanceadores de cargas de aplicaciones externos globales. El balanceador de cargas proporciona las direcciones IP y los puertos de frontend que reciben solicitudes y los backends que responden a esas solicitudes.
Para obtener más detalles, consulta la documentación de Cloud CDN.
Cloud CDN no es compatible con IAP. No se pueden habilitar en el mismo servicio de backend.
Google Cloud Armor
Si usas uno de los siguientes balanceadores de cargas, puedes agregar protección adicional a tus aplicaciones si habilitas Google Cloud Armor en el servicio de backend durante la creación del balanceador de cargas:
- Balanceador de cargas de aplicaciones externo global
- Balanceador de cargas de aplicaciones clásico
- Balanceador de cargas de red del proxy externo global
- Balanceador de cargas de red del proxy clásico
Si usas la consola de Google Cloud, puedes realizar una de las siguientes acciones:
- Selecciona una política de seguridad de Google Cloud Armor existente.
- Acepta la configuración de una política de seguridad predeterminada para el límite de frecuencia de Google Cloud Armor con un nombre, recuento de solicitudes, intervalo, clave y parámetros de límite de frecuencia personalizables. Si usas Google Cloud Armor con un servicio de proxy ascendente, como un proveedor de CDN,
Enforce_on_key
debe configurarse como una dirección IP de XFF. - Si deseas inhabilitar la protección de Google Cloud Armor, selecciona Ninguna.
IAP
IAP te permite establecer una capa de autorización central para las aplicaciones a las que se accede mediante HTTPS, por lo que puedes usar un modelo de control de acceso a nivel de aplicación en lugar de firewalls a nivel de red. IAP es compatible con ciertos balanceadores de cargas de aplicaciones.
IAP no es compatible con Cloud CDN. No se pueden habilitar en el mismo servicio de backend.
Funciones de la administración del tráfico
Las siguientes funciones solo son compatibles con algunos productos:
- Políticas de balanceo de cargas (
localityLbPolicy
), excepto para ROUND_ROBIN - Disyuntores, excepto en el campo
maxRequests
- Detección de valores atípicos
Las siguientes funciones son compatibles con los siguientes balanceadores de cargas:
- Balanceador de cargas de aplicaciones externo global (no se admite la interrupción de circuitos)
- Balanceador de cargas de aplicaciones externo regional
- Balanceador de cargas de aplicaciones interno entre regiones
- Balanceador de cargas de aplicaciones interno regional
- Cloud Service Mesh (pero no es compatible con los servicios de gRPC sin proxy)
API y referencia de gcloud
Para obtener más información sobre las propiedades del recurso del servicio de backend, consulta las siguientes referencias:
- Recurso de la API del servicio de backend global
Recurso de la API del servicio de backend regional
Página de
gcloud compute backend-services
, para servicios de backend globales y regionales .
¿Qué sigue?
Para obtener información y documentación sobre cómo se usan los servicios de backend en el balanceo de cargas, consulta las siguientes páginas:
- Crear encabezados personalizados
- Crea un balanceador de cargas de aplicaciones externo
- Descripción general del balanceador de cargas de aplicaciones externo
- Habilita el vaciado de conexiones
- Encriptación en tránsito en Google Cloud