Nesta página, listamos os problemas conhecidos da rede do GKE. Esta página é destinada a administradores e arquitetos que gerenciam o ciclo de vida da infraestrutura de tecnologia e respondem a alertas e páginas quando os objetivos de nível de serviço (SLOs) não são atendidos ou os aplicativos falham.
Para filtrar os problemas conhecidos por uma versão do produto, selecione os filtros nos menus suspensos a seguir.
Selecione sua versão do GKE:
Ou pesquise seu problema:
Versões identificadas | Versões corrigidas | Problema e solução alternativa |
---|---|---|
1.31, 1.32, 1.33 |
|
Interrupções nos balanceadores de carga de entrada e de serviço em clusters com uma rede legadaUma incompatibilidade com redes legadas faz com que os back-ends de um balanceador de carga gerenciado pelo GKE implantado usando Entrada ou Service sejam desconectados. Isso resulta em um balanceador de carga sem back-ends ativos, o que, por sua vez, faz com que todas as solicitações recebidas para esses balanceadores de carga sejam descartadas. O problema afeta clusters do GKE que usam uma rede legada e estão na versão 1.31 ou mais recente. Para identificar clusters do GKE com uma rede legada, execute o seguinte comando: gcloud container clusters describe CLUSTER_NAME --location=LOCATION --format="value(subnetwork)" Um cluster com uma rede legada vai receber uma saída vazia para esse comando. Alternativa: Como as redes legadas foram descontinuadas há algum tempo, a solução preferida é migrar sua rede legada para uma rede VPC. Para fazer isso, converta uma rede legada que contém clusters do GKE. Se não for possível fazer essa migração agora, entre em contato com o Cloud Customer Care. |
1.30, 1.31, 1.32 |
|
Os nós recém-criados não são adicionados aos balanceadores de carga internos da camada 4Os balanceadores de carga Google Cloud criados para serviços LoadBalancer internos podem não incluir nós recém-criados no grupo de instâncias de back-end. O problema será mais visível em um cluster que foi escalonado para zero nós e depois escalonado de volta para um ou mais nós. Alternativas:
|
1.27,1.28,1.29,1.30,1.31 |
O controlador NEG para de gerenciar endpoints quando a porta é removida do serviçoQuando o controlador de NEG é configurado para criar um NEG independente para um serviço e uma das portas configuradas é removida posteriormente do serviço, o controlador de NEG acaba parando de gerenciar endpoints para o NEG. Além dos serviços em que o usuário cria uma anotação de NEG independente, isso também afeta os serviços referenciados pelo Gateway do GKE, MCI e Gateway de vários clusters do GKE. Alternativa: Ao remover uma porta de um serviço com uma anotação de NEG independente, a anotação também precisa ser atualizada para remover a porta em questão. |
|
1.28 |
Erro de configuração de TLS do gatewayIdentificamos um problema na configuração do TLS para gateways em clusters que executam a versão 1.28.4-gke.1083000 do GKE. Isso afeta as configurações de TLS que usam um SSLCertificate ou um CertificateMap. Se você estiver fazendo upgrade de um cluster com gateways atuais, as atualizações feitas no gateway vão falhar. Para novos gateways, os balanceadores de carga não serão provisionados. Esse problema será corrigido em uma futura versão de patch do GKE 1.28. |
|
1.27,1.28,1.29 |
|
Falhas intermitentes no estabelecimento de conexãoOs clusters nas versões 1.26.6-gke.1900 e mais recentes do plano de controle podem encontrar falhas intermitentes no estabelecimento de conexão. As chances de falhas são baixas e não afetam todos os clusters. As falhas devem parar completamente alguns dias após o início do sintoma. |
1.27,1.28,1.29 |
|
Problemas de resolução de DNS com o Container-Optimized OSAs cargas de trabalho executadas em clusters do GKE com nós baseados no Container-Optimized OS podem ter problemas de resolução de DNS. |
1.28 | 1.28.3-gke.1090000 ou mais recente |
A política de rede descarta uma conexão devido à pesquisa incorreta de acompanhamento de conexãoPara clusters com o GKE Dataplane V2 ativado, quando um pod cliente se conecta a ele mesmo usando um serviço ou o endereço IP virtual de um balanceador de carga de rede de passagem interna, o pacote de resposta não é identificado como parte de uma conexão devido a uma pesquisa de conntrack incorreta no plano de dados. Isso significa que uma política de rede que restringe o tráfego de entrada do pod é aplicada incorretamente no pacote. O impacto desse problema depende do número de pods configurados para o serviço. Por exemplo, se o serviço tiver um pod de back-end, a conexão sempre vai falhar. Se o serviço tiver dois pods de back-end, a conexão falhará 50% do tempo. Alternativa:
É possível atenuar esse problema configurando |
1.27,1.28 |
|
Quedas de pacotes para fluxos de conexão com alça de cabeloPara clusters com o GKE Dataplane V2 ativado, quando um pod cria uma conexão TCP com ele mesmo usando um serviço, de modo que o pod é a origem e o destino da conexão, o rastreamento de conexão eBPF do GKE Dataplane V2 rastreia incorretamente os estados de conexão, levando a um vazamento de entradas conntrack. Quando uma tupla de conexão (protocolo, IP de origem/destino e porta de origem/destino) vaza, novas conexões que usam a mesma tupla de conexão podem resultar no descarte de pacotes de retorno. Alternativa: Use uma das seguintes soluções alternativas:
|
Anterior a 1.31.0-gke.1506000 | 1.31.0-gke.1506000 e mais recente |
A rede digitada pelo dispositivo em várias redes do GKE falha com nomes de rede longosA criação do cluster falha com o seguinte erro:
Alternativa: Limite o comprimento dos nomes de objetos de rede digitados pelo dispositivo a 41 caracteres ou menos. O caminho completo de cada soquete de domínio UNIX é composto, incluindo o nome de rede correspondente. O Linux tem uma limitação de comprimentos de caminho de soquete
(menos de 107 bytes). Depois de considerar o diretório, o prefixo do nome do arquivo e
a extensão |
1.27, 1.28, 1.29, 1.30 |
|
Problemas de conectividade para pods
|
1.31, 1.32 |
|
Tráfego UDP corrompido entre pods executados no mesmo nóClusters com a visibilidade intranós ativada podem ter problemas com o tráfego UDP entre pods que são executados no mesmo nó. O problema é acionado quando o nó do cluster do GKE é atualizado ou criado com uma das seguintes versões do GKE:
O caminho afetado é o tráfego UDP entre pods no mesmo nó por Hostport ou Service. Resolução Faça upgrade do cluster para uma das seguintes versões corrigidas:
|
1.28, 1.29, 1.30, 1.31 |
Pods do Calico não íntegros em clusters com menos de três nós totais e vCPU insuficienteOs pods calico-typha e calico-node não podem ser programados em clusters que atendam a todas as seguintes condições: menos de três nós no total, cada nó com uma vCPU alocável ou menos e política de rede ativada. Isso acontece devido a recursos de CPU insuficientes. Alternativas:
|