Práticas recomendadas gerais

Esta página oferece orientações sobre o uso ideal do Memorystore para Valkey. Essa página também indica possíveis problemas que devem ser evitados.

Práticas recomendadas para o gerenciamento de memória

Esta seção descreve estratégias para gerenciar a memória da instância para que o Memorystore para Valkey funcione de maneira eficiente no seu aplicativo.

Conceitos de gerenciamento de memória

  • Carga de gravação: o volume e a velocidade com que você adiciona ou atualiza chaves na sua instância da Valkey. A carga de gravação pode variar de normal a muito alta, dependendo do caso de uso e dos padrões de uso do aplicativo da Valkey.

  • Política de remoção: o Memorystore para Valkey usa a política de remoção volatile-lru. É possível usar comandos Valkey, como o comando EXPIRE, para definir exclusões de chaves.

Como monitorar uma instância com uma carga de gravação normal

Confira a métrica /instance/cpu/maximum_utilization. Se /instance/cpu/maximum_utilization estiver em 100% ou menos, a instância do Valkey terá bom desempenho ao usar uma carga de gravação normal.

No entanto, se o uso de memória se aproximar de 100% e você esperar que o uso de dados aumente, escalone o tamanho da instância para abrir espaço para novos dados.

Como monitorar uma instância com carga alta de gravação

Confira a métrica /instance/memory/maximum_utilization. Dependendo da gravidade da carga de gravação alta, a instância pode ter problemas de desempenho nos seguintes limites:

  • Cargas de gravação muito altas podem ter problemas se /instance/memory/maximum_utilization atingir 65% ou mais.

  • Cargas de gravação moderadamente altas podem ter problemas se /instance/memory/maximum_utilization atingir 85% ou mais.

Nesses cenários, aumente o tamanho da instância para melhorar a performance.

Se você tiver problemas ou estiver preocupado com a alta carga de gravação da instância, entre em contato com o suporte do Google Cloud.

Escalonar fragmentos

Ao aumentar o número de fragmentos em uma instância, faça isso durante períodos de poucas gravações. O escalonamento durante períodos de alta carga de gravação pode colocar pressão de memória na instância devido à sobrecarga de memória causada pela replicação ou migração de slots.

Se o caso de uso da Valkey usar remoções de chaves, o escalonamento para um tamanho de instância menor pode reduzir a proporção de ocorrência em cache. No entanto, nessa circunstância, você não precisa se preocupar em perder dados, já que a eliminação de chaves é esperada.

Para casos de uso da chave Valkey em que você não quer perder chaves, é necessário reduzir escala vertical para uma instância menor que ainda tenha espaço suficiente para os dados. A nova contagem de fragmentos de destino precisa permitir pelo menos 1,5 vezes a memória usada pelos dados. Em outras palavras, provisioneie divisões suficientes para 1,5 vezes a quantidade de dados que está na sua instância. Use a métrica /instance/memory/total_used_memory para saber a quantidade de dados armazenados na sua instância.

Práticas recomendadas para o uso da CPU

Se ocorrer uma interrupção zonal inesperada, isso vai reduzir os recursos de CPU da sua instância devido à perda de capacidade dos nós na zona indisponível. Recomendamos o uso de instâncias de alta disponibilidade. O uso de duas réplicas por fragmento (em vez de uma réplica por fragmento) fornece recursos de CPU adicionais durante uma interrupção. Além disso, recomendamos gerenciar o uso da CPU do nó para que os nós tenham sobrecarga de CPU suficiente para processar o tráfego adicional da capacidade perdida caso ocorra uma falha zonal inesperada. Monitore o uso da CPU para primárias e réplicas usando a métrica Segundos de CPU da linha de execução principal /instance/cpu/maximum_utilization.

Dependendo de quantas réplicas você provisionar por nó, recomendamos os seguintes objetivos de uso da CPU /instance/cpu/maximum_utilization:

  • Para instâncias com uma réplica por nó, defina um valor de /instance/cpu/maximum_utilization de 0,5 segundo para o primário e a réplica.
  • Para instâncias com duas réplicas por nó, defina um valor de /instance/cpu/maximum_utilization de 0,9 segundo para a instância principal e 0,5 segundo para as réplicas.

Se os valores da métrica excederem essas recomendações, recomendamos aumentar o número de fragmentos ou réplicas na sua instância.

Comandos de Valkey caros para CPU

Evite comandos do Valkey que são caros para executar por vários motivos. Esta seção apresenta exemplos de motivos pelos quais alguns comandos são caros, mas essa lista não é exaustiva.

Comandos que operam em todo o espaço de chaves

  • KEYS

Comandos que operam em um conjunto de chaves de comprimento variável

  • LRANGE
  • ZRANGE
  • HGETALL

Comandos que bloqueiam a execução de um script

  • EVAL
  • EVALSHA

Riscos do uso de comandos caros

  • Latência alta e tempo limite do cliente.
  • Pressão da memória causada por comandos que aumentam o uso da memória.
  • Perda de dados durante a replicação e sincronização de nós devido ao bloqueio da linha de execução principal da Valkey.
  • Verificações de integridade, observabilidade e replicação com falta de recursos.

Práticas recomendadas para clientes do Valkey

O aplicativo precisa usar um cliente Valkey compatível com cluster ao se conectar a uma instância do Memorystore para Valkey. Para conferir exemplos de clientes compatíveis com clusters e configurações de amostra, consulte Exemplos de código da biblioteca de cliente. O cliente precisa manter um mapa de slots de hash para os nós correspondentes na instância para enviar solicitações aos nós corretos e evitar a sobrecarga de desempenho causada por redirecionamentos.

Mapeamento de clientes

Os clientes precisam receber uma lista completa de slots e os nós mapeados nas seguintes situações:

  • Quando o cliente é inicializado, ele precisa preencher o mapeamento de slot inicial para nós.

  • Quando um redirecionamento MOVED é recebido do servidor, como na situação de failover, quando todos os slots atendidos pelo antigo nó principal são assumidos pela réplica ou quando o sharding é refeito, quando os slots são movidos do primário de origem para o nó primário de destino.

  • Quando um erro CLUSTERDOWN é recebido do servidor ou as conexões com um servidor específico são executadas com tempos limite persistentes.

  • Quando um erro READONLY é recebido do servidor. Isso pode acontecer quando uma instância principal é rebaixada para réplica.

  • Além disso, os clientes precisam atualizar periodicamente a topologia para se manterem preparados para qualquer mudança e saber sobre mudanças que não resultem em redirecionamentos / erros do servidor, como quando novos nós de réplica são adicionados. Todas as conexões desatualizadas também precisam ser fechadas como parte da atualização da topologia para reduzir a necessidade de processar conexões com falhas durante a execução do comando.

Descoberta de cliente

A descoberta do cliente geralmente é feita emitindo um comando SLOTS, NODES ou CLUSTER SHARDS para o servidor do Valkey. Recomendamos o uso do comando CLUSTER SHARDS. CLUSTER SHARDS substitui o comando SLOTS (descontinuado), fornecendo uma representação mais eficiente e extensível da instância.

O tamanho da resposta para os comandos de descoberta do cliente pode variar com base no tamanho da instância e na topologia. Instâncias maiores com mais nós produzem uma resposta maior. Por isso, é importante garantir que o número de clientes que fazem a descoberta da topologia de nó não cresça indefinidamente.

Essas atualizações de topologia de nó são caras no servidor da Valkey, mas também são importantes para a disponibilidade do aplicativo. Portanto, é importante garantir que cada cliente faça uma única solicitação de descoberta a qualquer momento (e armazene o resultado na memória) e que o número de clientes que fazem as solicitações seja limitado para evitar a sobrecarga do servidor.

Por exemplo, quando o aplicativo cliente é iniciado ou perde a conexão com o servidor e precisa realizar a descoberta de nós, um erro comum é que o aplicativo cliente faz várias solicitações de reconexão e descoberta sem adicionar uma espera exponencial na nova tentativa. Isso pode fazer com que o servidor Valkey não responda por um período prolongado, causando uma utilização muito alta da CPU.

Evite a sobrecarga de descoberta no Valkey

Para reduzir o impacto causado por uma entrada repentina de solicitações de conexão e detecção, recomendamos o seguinte:

  • Implemente um pool de conexões de cliente com um tamanho finito e pequeno para limitar o número de conexões de entrada simultâneas do aplicativo cliente.

  • Quando o cliente se desconecta do servidor devido ao tempo limite, tente novamente com espera exponencial com jitter. Isso ajuda a evitar que vários clientes sobrecarreguem o servidor ao mesmo tempo.

  • Use o endpoint de descoberta do Memorystore para Valkey para realizar a descoberta de nós. O endpoint de descoberta tem alta disponibilidade e é balanceado por carga em todos os nós da instância. Além disso, o endpoint de descoberta tenta encaminhar as solicitações de descoberta de nó para nós com a visualização de topologia mais atualizada.

Práticas recomendadas de persistência

Esta seção explica as práticas recomendadas para persistência.

Persistência do RDB

Para melhores resultados ao fazer backup da sua instância com snapshots do RDB, use as seguintes práticas recomendadas:

Gerenciamento de memória

Os snapshots de RDB usam um fork de processo e o mecanismo "copy-on-write" para fazer um snapshot dos dados do nó. Dependendo do padrão de gravações nos nós, a memória usada dos nós aumenta à medida que as páginas tocadas pelas gravações são copiadas. Na pior das hipóteses, o volume de memória pode ser o dobro do tamanho dos dados no nó.

Para garantir que os nós tenham memória suficiente para concluir o snapshot, mantenha ou defina maxmemory em 80% da capacidade do nó, de modo que 20% sejam reservados para sobrecarga. Consulte Monitorar uma instância com alta carga de gravação para saber mais. Essa sobrecarga de memória, além dos snapshots de monitoramento, ajuda a gerenciar sua carga de trabalho para ter snapshots bem-sucedidos.

Snapshots desatualizados

A recuperação de nós de um snapshot desatualizado pode causar problemas de desempenho no aplicativo, já que ele tenta reconciliar uma quantidade significativa de chaves desatualizadas ou outras alterações no banco de dados, como uma mudança de esquema. Se você estiver preocupado com a recuperação de um snapshot desatualizado, desative o recurso de persistência do RDB. Depois que você reativar a persistência, um snapshot será tirado no próximo intervalo programado.

Impacto no desempenho dos snapshots do RDB

Dependendo do padrão de carga de trabalho, os snapshots do RDB podem afetar o desempenho da instância e aumentar a latência dos aplicativos. Se você não se importar com snapshots menos frequentes, é possível minimizar o impacto no desempenho dos snapshots de RDB programando a execução deles durante períodos de baixo tráfego de instância.

Por exemplo, se a instância tiver tráfego baixo das 1h às 4h, defina o horário de início como 3h e o intervalo como 24 horas.

Se o sistema tiver uma carga constante e exigir snapshots frequentes, avalie cuidadosamente o impacto no desempenho e pese os benefícios do uso de snapshots de RDB para a carga de trabalho.

Escolha uma instância de zona única se ela não usar réplicas

Ao configurar uma instância sem réplicas, recomendamos uma arquitetura de zona única para melhorar a confiabilidade. Geralmente, estes são os motivos:

Minimizar o impacto da interrupção

As falhas zonais têm menos probabilidade de afetar sua instância. Ao colocar todos os nós em uma única zona, a chance de uma interrupção zonal afetar seu servidor cai de 100% para 33%. Isso ocorre porque há uma chance de 33% de que a zona em que sua instância está localizada seja interrompida, em vez de uma chance de 100% de que os nós localizados na zona indisponível sejam afetados.

Recuperação rápida

Se ocorrer uma falha temporária na zona, a recuperação será simplificada. Você pode responder provisionando rapidamente uma nova instância em uma zona de funcionamento e redirecionando o app para operações com interrupção mínima.