O que é o bursting de nuvem?

O bursting de nuvem é uma configuração na computação em nuvem em que um aplicativo é executado em uma nuvem privada ou em um data center no local e "entra" em uma nuvem pública quando a demanda por capacidade de computação aumenta. Ele funciona como uma válvula de escape, de modo que, quando a infraestrutura privada atinge o limite, o tráfego é direcionado automaticamente para os serviços de nuvem pública para garantir que não haja interrupção no serviço. Pense nisso como uma loja de varejo que abre mais caixas apenas quando as filas ficam muito longas. A configuração de expansão para a nuvem é um tipo específico de implantação de nuvem híbrida.

Em um modelo de escalonamento de nuvem padrão, uma empresa pode tentar lidar com tudo em um ambiente. No entanto, ter servidores físicos suficientes para lidar com o dia mais movimentado do ano significa que esses servidores ficam vazios e sem uso nos outros 364 dias. O bursting de nuvem pode ajudar a resolver esse problema, porque permite que uma organização pague pela capacidade básica no próprio data center e só pague por recursos extras de nuvem pública quando realmente precisar deles. Essa abordagem pode ajudar as empresas a lidar com picos repentinos de tráfego sem comprar hardware caro que não será usado o tempo todo.

Como funciona o bursting de nuvem

Para entender a mecânica de um estouro de nuvem, imagine sua nuvem privada como um tanque de água. Em condições normais, a água (tráfego de dados) fica dentro da capacidade do tanque. No entanto, quando uma tempestade repentina atinge (um pico de tráfego), o tanque corre o risco de transbordar.

Em uma configuração de expansão para a nuvem, as equipes de TI configuram um "gatilho" ou limite, geralmente quando o uso de recursos atinge cerca de 70 a 80%. Quando esse limite é ultrapassado, o sistema abre automaticamente uma válvula para um tanque secundário: a nuvem pública. O aplicativo continua funcionando sem problemas, com o tráfego de overflow sendo roteado para os recursos da nuvem pública. Quando a tempestade passa e os níveis de tráfego voltam a cair, o sistema fecha a válvula e desativa os recursos da nuvem pública, retornando as operações exclusivamente para a nuvem privada.

Tipos de bursting de nuvem

Há diferentes maneiras de conigurar esses picos, dependendo do nível de controle ou automação que uma equipe precisa.

  • Bursting manual: acontece quando um administrador adiciona recursos de nuvem pública manualmente. Isso pode ser útil para eventos previsíveis, como o lançamento planejado de um software, em que uma pessoa pode decidir exatamente quando iniciar e interromper a capacidade extra.
  • Burst automatizado: esse método usa políticas de software para acionar o burst. Quando o sistema detecta que o uso de recursos atingiu um limite específico, ele pode ativar automaticamente recursos extras na nuvem pública sem intervenção humana.
  • Balanceamento de carga distribuído: essa abordagem distribui o tráfego entre as nuvens privada e pública simultaneamente. Ele encaminha as solicitações dos usuários para o local mais próximo ou com mais capacidade disponível no momento.

Quando usar o bursting de nuvem

O bursting de nuvem nem sempre é a opção certa para todos os aplicativos, principalmente aqueles que dependem de dados complexos e sensíveis que não podem sair de uma rede privada. Ele é mais adequado para cargas de trabalho com padrões de demanda flutuantes, sazonais ou imprevisíveis em que a velocidade e o tempo de atividade são essenciais, como nas seguintes situações:

Os varejistas costumam enfrentar picos de tráfego durante eventos de compras populares, como a Black Friday ou a Cyber Monday. O bursting de nuvem permite que essas empresas atendam milhões de compradores por alguns dias usando a nuvem pública e depois reduzam a escala para a infraestrutura privada quando a correria acabar.

Cientistas e engenheiros de dados costumam executar tarefas de computação de alto desempenho (HPC), como simulações complexas, treinamento de modelos de IA ou outras computações pesadas, como renderização 3D. Esses jobs podem precisar de milhares de servidores por apenas algumas horas. Com o bursting, as equipes podem alugar esse poder enorme temporariamente em vez de esperar em uma longa fila de supercomputação ou construir um supercomputador que será subutilizado.

Os desenvolvedores de software precisam com frequência criar ambientes temporários para testar novos códigos ou atualizações. Em vez de ocupar espaço nos principais servidores privados, eles podem transferir esses ambientes de teste para a nuvem pública. Isso ajuda a manter o ambiente de produção seguro e estável.

Se um data center local ficar off-line devido a uma queda de energia ou desastre natural, o bursting de nuvem pode atuar como um mecanismo de failover que oferece suporte à recuperação de desastres. O sistema pode redirecionar o tráfego para a nuvem pública para manter o aplicativo em execução até que o site principal seja corrigido.

Como as organizações podem implementar o bursting de nuvem?

A implementação do bursting de nuvem exige mais do que apenas dois ambientes de computação: é preciso uma estratégia para lidar com a complexidade da movimentação de dados e aplicativos entre eles. Para fazer isso de maneira eficaz, as organizações precisam de recursos que garantam conectividade perfeita e gerenciamento consistente.

Configurar um gatilho de burst com o GKE

Uma das maneiras mais eficazes de implementar um gatilho de expansão para a nuvem é usar o Google Kubernetes Engine (GKE) e o escalonador automático de pods horizontal (HPA) com métricas externas. Nesse cenário, o aplicativo no local envia um sinal (uma métrica) para o Google Cloud Monitoring. Quando esse sinal cruza um limite, o GKE inicia automaticamente novos pods na nuvem para lidar com a carga.

Veja como configurar um gatilho com base na profundidade da fila do Pub/Sub (um indicador comum de que seus workers no local estão sobrecarregados):

1. Ative a API de métricas personalizadas: primeiro, você precisa permitir que o cluster do GKE leia métricas do Cloud Monitoring. Para fazer isso, você implanta o adaptador de métricas personalizadas do Stackdriver no cluster. Esse adaptador funciona como uma ponte, traduzindo as métricas do Google Cloud em algo que o Kubernetes possa entender.

  • Bash
Carregando...

2. Definir a configuração do HPA: criar um arquivo YAML do HorizontalPodAutoscaler. Ao contrário de um escalonador automático padrão que analisa o uso da CPU, este vai analisar uma métrica externa, especificamente o número de mensagens não entregues em uma assinatura do Pub/Sub (num_undelivered_messages).

  • YAML
Carregando...

3. Aplicar e monitorar: aplique essa configuração usando kubectl apply -f hpa.yaml. Agora o GKE está "monitorando" sua fila. Se o sistema no local ficar mais lento e a fila ultrapassar o limite de 50 mensagens, o HPA vai acionar automaticamente a criação de novos pods na nuvem para processar o backlog. Quando a fila estiver vazia, o GKE vai reduzir o escalonamento dos pods para zero.

Ajuste fino por meio do monitoramento

Não é possível gerenciar o que não se vê. Para que o estouro de nuvem funcione, as equipes de TI precisam ter uma visão clara dos recursos no data center particular e na nuvem pública. O Google Cloud oferece ferramentas que fornecem visibilidade granular de como os aplicativos usam a CPU e a memória.

Ao entender exatamente quanto "combustível" um aplicativo consome, as equipes podem definir limites precisos para quando fazer o burst. Se o limite for muito baixo, você pode gastar dinheiro na nuvem pública quando não precisa. Se for muito alto, o app pode falhar antes que os novos recursos cheguem. O monitoramento unificado ajuda as organizações a ajustar essas configurações para equilibrar desempenho e custo.

O papel da automação

O balanceamento manual funciona para projetos pequenos e pouco frequentes, mas pode não ser escalonável para aplicativos empresariais. Para serem mais eficientes, as organizações podem implementar softwares e ferramentas para orquestrar automaticamente os recursos de computação em nuvem. Ferramentas de automação, como o Terraform ou o Deployment Manager do Google Cloud, podem ajudar a definir a infraestrutura como código (IaC).

Isso significa que o sistema pode provisionar, configurar e gerenciar servidores automaticamente com base na demanda em tempo real. Quando o pico de tráfego diminui, as ferramentas de automação também lidam com o "desprovisionamento" ou desligamento desses recursos. Isso garante que a empresa pare de pagar pela nuvem pública no momento em que ela não for mais necessária.

Controles (monitoramento e relatórios)

Manter o controle durante um pico é essencial para a segurança e o gerenciamento do orçamento. As organizações precisam de uma capacidade de monitoramento robusta para rastrear recursos e garantir que eles sejam provisionados adequadamente sem interrupção do serviço.

As ferramentas de geração de relatórios ajudam a monitorar o custo do estouro ao longo do tempo. Esses dados são essenciais para prever orçamentos futuros. Além disso, políticas de segurança consistentes precisam ser aplicadas aos recursos de bursting. As ferramentas que implementam monitoramento e relatórios podem ajudar a reduzir custos e aumentar a eficiência ao longo do tempo, identificando tendências e anomalias no uso.

Benefícios do bursting de nuvem

A adoção de uma estratégia de expansão para a nuvem pode oferecer várias vantagens para organizações que buscam equilibrar desempenho e orçamento.

Economias de custo

As empresas só pagam pelos recursos adicionais da nuvem pública quando os usam, o que pode ajudar a evitar a despesa de capital de comprar hardware que fica ocioso durante períodos de baixa demanda.

Flexibilidade e escalonabilidade

Ela pode dar às equipes a liberdade de testar novos projetos ou lidar com picos massivos de tráfego sem serem limitadas pelo espaço físico ou energia disponível no próprio data center.

Continuidade e resiliência dos negócios

Se o data center privado tiver um problema ou ficar sobrecarregado, o aplicativo permanece on-line ao transferir a carga para a nuvem pública, o que ajuda a evitar falhas e tempo de inatividade.

Otimização de recursos

As equipes de TI podem manter a nuvem privada funcionando em um nível estável e eficiente para tarefas críticas, enquanto descarregam o tráfego variável e imprevisível para a nuvem pública flexível.

Resolva seus desafios comerciais com o Google Cloud

Clientes novos recebem US$ 300 em créditos para usar no Google Cloud.

Vantagem do Google Cloud para picos de uso e escalonabilidade

Embora o conceito de expansão para a nuvem seja universal, a infraestrutura que o oferece suporte varia significativamente entre os provedores. O Google Cloud oferece vantagens específicas que tornam o estouro híbrido mais rápido, confiável e fácil de gerenciar.

  • Plataforma consistente com o GKE Enterprise: muitas soluções híbridas exigem que as equipes gerenciem dois ambientes diferentes, um no local e outro na nuvem, o que pode criar problemas de compatibilidade durante um pico. O GKE Enterprise do Google Cloud oferece um ambiente de execução do Kubernetes consistente nos dois ambientes. Isso significa que um aplicativo criado para seu data center particular pode ser transferido instantaneamente para o Google Cloud sem precisar de alterações no código ou de uma replataforma complexa.
  • Melhor desempenho da rede: quando um aplicativo tem picos de uso, os dados precisam viajar entre o data center privado e a nuvem pública. O Google opera uma das maiores redes privadas de fibra óptica do mundo. Ao manter o tráfego nesse backbone privado em vez da Internet pública, o Google Cloud pode reduzir a latência e melhorar a segurança durante eventos críticos de alto tráfego.
  • Balanceamento de carga global avançado : o Google Cloud Load Balancing não apenas roteia o tráfego, mas também responde a picos de tráfego em segundos (e não em minutos) e distribui cargas entre regiões globalmente. Se um burst local não for suficiente, a rede poderá rotear automaticamente os usuários para a região mais próxima com capacidade disponível, oferecendo um nível de resiliência difícil de alcançar com ferramentas de rede padrão.
  • Flexibilidade de código aberto: como o Google Cloud é baseado em padrões abertos como o Kubernetes e o TensorFlow, as organizações evitam a dependência de fornecedores. Você pode criar uma estratégia de expansão que funcione hoje e mantenha a flexibilidade para adaptar sua infraestrutura no futuro.

Outros recursos

  • Padrões híbridos e multicloud: este guia fornece arquiteturas de referência técnicas e práticas recomendadas para implementar o padrão de expansão para a nuvem no Google Cloud.
  • Padrões de arquitetura distribuída: saiba como desacoplar componentes de aplicativos (como front-ends e back-ends) para executar com eficiência em ambientes híbridos, uma etapa fundamental para ativar o bursting.
  • 5 ways Google helps with hybrid and multicloud: um white paper estratégico que mostra como ter sucesso em um mundo híbrido, abordando gerenciamento, análise e segurança em vários ambientes.

Vá além

Comece a criar no Google Cloud com US$ 300 em créditos e mais de 20 produtos sem custo financeiro.

Google Cloud