Visão geral do balanceamento de carga do proxy TCP

O balanceamento de carga do proxy TCP é um balanceador de carga do proxy reverso que distribui o tráfego TCP proveniente das instâncias de Internet para máquinas virtuais (VM) na rede VPC do Google Cloud. Ao usar o balanceamento de carga do proxy TCP, o tráfego proveniente de uma conexão TCP é encerrado na camada de balanceamento de carga e, em seguida, encaminhado para o back-end disponível mais próximo usando TCP ou SSL.

O balanceamento de carga do proxy TCP permite usar um único endereço IP para todos os usuários no mundo. O balanceador de carga do proxy TCP direciona automaticamente o tráfego para os back-ends mais próximos do usuário.

Com o nível Premium, o balanceamento de carga do proxy TCP pode ser configurado como um serviço de balanceamento de carga global. Com o nível Padrão, o balanceador de carga do proxy TCP processa o balanceamento de carga por região. Para mais detalhes, consulte Comportamento do balanceador de carga em níveis de serviço de rede.

Neste exemplo, as conexões para o tráfego de usuários em Seul e Boston são encerradas na camada de balanceamento de carga. Essas conexões são marcadas como 1a e 2a. Conexões separadas são estabelecidas a partir do balanceador de carga para as instâncias de back-end selecionadas. Essas conexões são marcadas como 1b e 2b.

Cloud Load Balancing com encerramento do TCP (clique para ampliar)
Cloud Load Balancing com encerramento do TCP (clique para ampliar)

O balanceamento de carga do proxy TCP destina-se ao tráfego TCP em portas conhecidas e específicas, como a porta 25 do protocolo SMTP. Para mais informações, consulte Especificações de porta. Para o tráfego de cliente criptografado nessas mesmas portas, use Balanceamento de carga do proxy SSL.

Conheça as diferenças entre os balanceadores de carga do Google Cloud nos documentos a seguir:

Vantagens

Alguns benefícios do balanceador de carga do proxy TCP incluem:

  • Terminação IPv6. O balanceamento de carga do proxy TCP tem suporte para endereços IPv6 e IPv4 para o tráfego do cliente. As solicitações IPv6 do cliente são encerradas na camada de balanceamento de carga e transmitidas por proxy pelo IPv4 para seus back-ends.
  • Roteamento inteligente. O balanceador de carga pode encaminhar solicitações para locais de back-end em que houver capacidade. Por outro lado, um balanceador de carga L3/L4 precisa ser encaminhado para back-ends regionais sem considerar a capacidade. O uso do encaminhamento mais inteligente permite o aprovisionamento em N+1 ou N+2, em vez de x*N.
  • Patches de segurança: caso surjam vulnerabilidades na pilha do TCP, o Cloud Load Balancing aplicará os patches no balanceador de carga automaticamente para manter suas instâncias seguras.
  • Suporte para as portas TCP conhecidas a seguir. 25, 43, 110, 143, 195, 443, 465, 587, 700, 993, 995, 1883, 3389, 5222, 5432, 5671, 5672, 5900, 5901, 6379, 8085, 8099, 9092, 9200 e 9300.

Arquitetura

A seguir, veja os componentes dos balanceadores de carga do proxy TCP.

Regras de encaminhamento e endereços IP

As regras de encaminhamento roteiam o tráfego por endereço IP, porta e protocolo para uma configuração de balanceamento de carga que consiste em proxy de destino e serviço de back-end.

Cada regra de encaminhamento fornece um endereço IP que pode ser usado nos registros DNS para seu aplicativo. Não é necessário nenhum balanceamento de carga baseado no DNS. É possível reservar um endereço IP estático que possa ser usado ou permitir que o Cloud Load Balancing atribua um para você. Recomendamos a reserva de um endereço IP estático; caso contrário, será necessário atualizar seu registro DNS com o endereço IP temporário recém-atribuído sempre que uma regra de encaminhamento for excluída e uma nova for criada.

As regras de encaminhamento externo usadas na definição de um balanceador de carga de proxy TCP podem referenciar exatamente uma das portas listadas em: Especificações de porta para regras de encaminhamento.

Proxies de destino

O balanceamento de carga do proxy TCP encerra as conexões TCP do cliente e cria novas conexões com os back-ends. Por padrão, o endereço IP do cliente original e as informações da porta não são preservados. É possível preservar essas informações usando o protocolo PROXY. As solicitações recebidas são encaminhadas diretamente para serviços de back-end pelos proxies de destino.

Serviços de back-end

O tráfego de entrada é direcionado pelos serviços de back-end a um ou mais back-ends anexados. Cada back-end é composto de um grupo de instâncias ou grupo de endpoint da rede e informações sobre a capacidade de serviço do back-end. A capacidade de exibição do back-end pode ser baseada em CPU ou solicitações por segundo (RPS, na sigla em inglês).

Os balanceadores de carga do proxy TCP têm um único recurso de serviço de back-end. As alterações no serviço de back-end não são instantâneas. Pode levar vários minutos para que as alterações sejam propagadas para o Google Front ends (GFEs).

Cada serviço de back-end especifica as verificações de integridade a serem executadas para os back-ends disponíveis.

Para garantir o mínimo possível de interrupções aos usuários, ative a diminuição das conexões nos serviços de back-end. Essas interrupções podem acontecer quando um back-end é encerrado, removido manualmente ou removido por um escalonador automático. Para saber mais sobre como usar a diminuição da conexão para minimizar as interrupções do serviço, consulte Ativar a diminuição da conexão.

Protocolo para comunicação com os back-ends

Ao configurar um serviço de back-end para o balanceador de carga do proxy TCP, defina o protocolo que o serviço usará para se comunicar com os back-ends. É possível escolher SSL ou TCP. O balanceador de carga usa apenas o protocolo que você especifica e não tenta negociar uma conexão com o outro protocolo.

Regras de firewall

As instâncias de back-end precisam permitir conexões das seguintes origens:

  • O balanceador de carga Google Front End (GFE) para todas as solicitações enviadas aos back-ends.
  • Sondagens de verificação de integridade

Para permitir esse tráfego, você precisa criar regras de firewall de entrada. As portas para essas regras de firewall precisam permitir o tráfego da seguinte maneira:

  • Para a porta de destino de cada verificação de integridade do serviço de back-end.

  • Para back-ends de grupos de instâncias: determinados pelo mapeamento entre a porta nomeada do serviço de back-end e os números de porta associados a essa porta nomeada em cada grupo de instâncias. Os números podem variar entre os grupos de instâncias atribuídos ao mesmo serviço de back-end.

  • Para back-ends de NEG GCE_VM_IP_PORT: para os números de porta dos endpoints.

As regras de firewall são implementadas no nível da instância de VM, não nos proxies do GFE. Não é possível usar regras de firewall do Google Cloud para impedir que o tráfego chegue ao balanceador de carga. É possível usar o Google Cloud Armor para fazer isso.

Saiba mais sobre sondagens de verificação de integridade e por que é necessário permitir tráfego deles em Intervalos de IP de sondagem e regras de firewall.

Para balanceadores de carga de proxy SSL e TCP, os intervalos de origem necessários são estes:

  • 130.211.0.0/22
  • 35.191.0.0/16

Esses intervalos se aplicam a verificações de integridade e solicitações do GFE.

Endereços IP de origem

O endereço IP de origem dos pacotes, como visto pelos back-ends, não é o endereço IP externo do Google Cloud do balanceador de carga. Em outras palavras, há duas conexões TCP:

  • Conexão 1, do cliente original para o balanceador de carga (GFE):

    • Endereço IP de origem: o cliente original (ou endereço IP externo se o cliente estiver atrás de NAT ou de um proxy de encaminhamento).
    • Endereço IP de destino: o endereço IP do seu balanceador de carga.
  • Conexão 2, do balanceador de carga (GFE) para o endpoint ou VM de back-end:

    • Endereço IP de origem: um endereço IP em um dos intervalos especificados nas regras de firewall.

    • Endereço IP de destino: o endereço IP interno da VM ou contêiner de back-end na rede da nuvem privada virtual (VPC).

Portas abertas

Os balanceadores de carga do proxy TCP são balanceadores de carga de proxy reverso. O balanceador de carga encerra as conexões de entrada e depois abre novas conexões do balanceador de carga para os back-ends. Esses balanceadores de carga são implementados usando proxies do Google Front End (GFE) em todo o mundo.

Os GFEs têm várias portas abertas para oferecer suporte a outros serviços do Google, executados na mesma arquitetura. Para ver uma lista de algumas das portas que provavelmente estarão abertas nos GFEs, consulte Regra de encaminhamento: especificações de porta. Pode haver outras portas abertas para outros serviços do Google em execução nos GFEs.

Executar uma verificação de porta no endereço IP de um balanceador de carga baseado no GFE não é útil do ponto de vista de auditoria pelos seguintes motivos:

  • Uma verificação de porta (por exemplo, com nmap) geralmente não espera nenhum pacote de resposta ou um pacote TCP RST ao realizar a sondagem de TCP SYN. Os GFEs enviarão pacotes SYN-ACK em resposta a sondagens SYN para várias portas se o balanceador de carga usar um endereço IP de nível Premium. No entanto, os GFEs só enviam pacotes para os back-ends em resposta aos enviados para o endereço IP do balanceador de carga e para a porta de destino configurada na regra de encaminhamento. Pacotes enviados para diferentes endereços IP do balanceador de carga ou o endereço IP do balanceador de carga em uma porta não configurada na regra de encaminhamento não resultam no envio de pacotes para os back-ends do balanceador de carga. Mesmo sem nenhuma configuração especial, a infraestrutura do Google e os GFEs fornecem defesa completa para ataques DDoS e inundações SYN.

  • Os pacotes enviados para o endereço IP do balanceador de carga poderiam ser respondidos por qualquer GFE na frota do Google; No entanto, a verificação de uma combinação de endereço IP e porta de balanceador de carga interroga apenas um único GFE por conexão TCP. O endereço IP do seu balanceador de carga não é atribuído a um único dispositivo ou sistema. Portanto, a verificação do endereço IP de um balanceador de carga baseado em GFE não verifica todos os GFEs na frota do Google.

Com isso em mente, veja a seguir algumas maneiras mais eficazes de auditar a segurança das instâncias de back-end:

  • Um auditor de segurança precisa inspecionar a configuração das regras de encaminhamento para a configuração do balanceador de carga. As regras de encaminhamento definem a porta de destino para a qual o balanceador de carga aceita pacotes e os encaminha para os back-ends. Para balanceadores de carga baseados em GFE, cada regra de encaminhamento externo só pode referir-se a uma única porta TCP de destino.

  • Um auditor de segurança precisa inspecionar a configuração da regra de firewall aplicável às VMs de back-end. As regras de firewall que você define bloqueiam o tráfego dos GFEs para as instâncias de back-end, mas não bloqueiam o tráfego de entrada para os GFEs. Para ver as práticas recomendadas, consulte a seção de regras de firewall.

Distribuição de tráfego

A maneira como um balanceador de carga do proxy TCP distribui o tráfego para os back-ends depende do modo de balanceamento e do método de hash selecionado para escolher um back-end (afinidade da sessão).

Como as conexões são distribuídas

O balanceamento de carga do proxy TCP pode ser configurado como um serviço de balanceamento de carga global com o nível Premium e como um serviço regional no nível Standard.

Para o nível Premium:

  • É possível ter apenas um serviço de back-end que pode ter back-ends em várias regiões. Para balanceamento de carga global, você implanta seus back-ends em várias regiões, e o balanceador de carga direciona automaticamente o tráfego para a região mais próxima do usuário. Se uma região estiver no limite da capacidade, novas conexões serão direcionadas para outra região que tenha capacidade disponível pelo balanceador de carga. As conexões de usuário atuais permanecem na região em que estão.
  • O Google divulga o endereço IP do balanceador de carga de todos os pontos de presença em todo o mundo. Cada endereço IP do balanceador de carga é anycast global.
  • Se você configurar um serviço de back-end com back-ends em várias regiões, o Google Front Ends (GFEs) tentará direcionar solicitações para grupos de instâncias de back-end íntegros ou NEGs na região mais próxima ao usuário. Os detalhes do processo estão documentados nesta página.

Para o nível Standard:

  • O Google divulga o endereço IP do balanceador de carga a partir dos pontos de presença associados à região da regra de encaminhamento. O balanceador de carga usa um endereço IP externo regional.

  • É possível configurar back-ends na mesma região que a regra de encaminhamento. O processo documentado aqui ainda se aplica, mas os GFEs só direcionam solicitações para back-ends íntegros nessa região.

Processo de distribuição de solicitações:

O modo de balanceamento e a escolha de destino definem a integridade do back-end na perspectiva de cada NEG GCE_VM_IP_PORT zonal, grupo de instâncias zonal ou zona de um grupo de instâncias regional. A distribuição dentro de uma zona é feita com hash consistente.

O balanceador de carga usa o seguinte processo:

  1. O endereço IP externo da regra de encaminhamento é divulgado pelos roteadores de borda nas bordas da rede do Google. Cada anúncio lista um próximo salto para um sistema de balanceamento de carga de camada 3/4 (Maglev) o mais próximo possível do usuário.
  2. Os sistemas Maglev inspecionam o endereço IP de origem do pacote de entrada. Eles direcionam a solicitação recebida para os sistemas Maglev que os sistemas de IP de localização geográfica do Google determinam como o mais próximo possível do usuário.
  3. Os sistemas Maglev encaminham o tráfego para o Google Front End (GFE) de primeira camada. O GFE de primeira camada encerra o TLS, se necessário, e depois direciona o tráfego para os GFEs de segunda camada de acordo com este processo:
    1. Se um serviço de back-end usar grupos de instâncias ou back-ends de NEG GCE_VM_IP_PORT, os primeiros GFEs de camada preferem os GFEs de segunda camada localizados ou próximos à região que contém o grupo de instâncias ou o NEG.
    2. Para buckets de back-end e serviços de back-end com NEGs híbridos, NEGs sem servidor e NEGs da Internet, os GFEs de primeira camada escolhem GFEs da segunda camada em um subconjunto de regiões, de modo que o tempo de retorno entre os dois GFEs seja minimizado.

      A preferência de GFE de segunda camada não é uma garantia e pode mudar dinamicamente com base nas condições de rede e na manutenção do Google.

      Os GFEs de segunda camada estão cientes do status da verificação de integridade e do uso real da capacidade do back-end.

  4. O GFE de segunda camada direciona solicitações para back-ends em zonas de sua região.
  5. Para o nível Premium, às vezes os GFEs de segunda camada enviam solicitações para back-ends em zonas de diferentes regiões. Esse comportamento é chamado de spillover.
  6. O spillover é regido por dois princípios:

    • O spillover é possível quando todos os back-ends conhecidos de um GFE de segunda camada estiverem no limite da capacidade ou não estiverem íntegros.
    • O GFE em segunda camada tem informações para back-ends íntegros e disponíveis em zonas de uma região diferente.

    Os GFEs de segunda camada normalmente são configurados para exibir um subconjunto de locais de back-end.

    O comportamento de spillover não esgota todas as zonas possíveis do Google Cloud. Se você precisar direcionar o tráfego para longe de back-ends em uma zona específica ou em uma região inteira, defina o escalonador de capacidade como zero. Configurar back-ends para que eles falhem nas verificações de integridade não garante que o GFE de segunda camada se estenda para back-ends em zonas de uma região diferente.

  7. Ao distribuir solicitações para back-ends, os GFEs operam em um nível zonal.

    Com um baixo número de conexões, às vezes os GFEs de segunda camada preferem uma zona em uma região em vez das outras zonas. Essa preferência é normal e esperada. A distribuição entre zonas na região não se torna uniforme até o balanceador de carga receber mais conexões.

Modo de balanceamento

Ao adicionar um back-end ao serviço respectivo, você define um modo de balanceamento de carga.

Para o balanceamento de carga do proxy TCP, o modo de balanceamento pode ser CONNECTION ou UTILIZATION.

Se ele for CONNECTION, a carga será distribuída com base em quantas conexões simultâneas o back-end pode processar. Você também precisa especificar exatamente um dos seguintes parâmetros: maxConnections (exceto para grupos regionais de instâncias gerenciadas), maxConnectionsPerInstance ou maxConnectionsPerEndpoint.

Se o modo de balanceamento de carga for UTILIZATION, a carga será distribuída com base na utilização das instâncias em um grupo.

Para mais informações sobre como comparar os tipos de balanceador de carga e os modos compatíveis, consulte este link.

Afinidade da sessão

Afinidade da sessão envia todas as solicitações do mesmo cliente para o mesmo back-end, caso o back-end esteja íntegro e tenha capacidade.

O balanceamento de carga do proxy TCP oferece afinidade de IP do cliente, que encaminha todas as solicitações do mesmo endereço IP de cliente para o mesmo back-end.

Failover

Se um back-end se tornar não íntegro, o tráfego será redirecionado automaticamente para back-ends íntegros na mesma região. Se todos os back-ends de uma região não forem íntegros, o tráfego será distribuído para back-ends íntegros em outras regiões (apenas nível Premium). Se nenhum back-end estiver íntegro, o balanceador de carga descartará o tráfego.

Balanceamento de carga para aplicativos do GKE

Se você estiver criando aplicativos no Google Kubernetes Engine, poderá usar NEGs independentes para balancear a carga do tráfego diretamente para contêineres. Com os NEGs independentes, você é responsável por criar o objeto Serviço que cria o NEG e, em seguida, associar o NEG ao serviço de back-end para que o balanceador de carga possa conectar aos pods.

Documentação relacionada do GKE:

Limitações

  • Os balanceadores de carga do proxy TCP não são compatíveis com o peering de rede VPC.

A seguir