O serviço Kubernetes mais escalonável e totalmente automatizado
Com a ativação do Autopilot nos contêineres, você executa
as cargas de trabalho da sua empresa em escala de forma segura, mesmo com pouca ou nenhuma
experiência em K8s.
Com a nova
edição premium GKE Enterprise,
as equipes de plataforma são beneficiadas com uma velocidade maior ao
configurar e monitorar vários clusters em um só lugar,
definindo a configuração para equipes em vez de clusters e
disponibilizando opções de autoatendimento para que desenvolvedores implantem
e gerenciem apps. É possível reduzir os riscos usando a segurança
avançada e o gerenciamento de configurações com base em GitOps. Menor
custo total de propriedade (TCO) com uma solução completamente integrada e
gerenciada, somando um ROI de até 196% em três
anos.
A edição GKE Standard
oferece gerenciamento totalmente automatizado do ciclo de vida do cluster,
escalonamento automático de pods e clusters, visibilidade de custos e
otimização automatizada de custos da infraestrutura. Ela inclui
todos os benefícios atuais do GKE e oferece os
modos de operação Autopilot e Standard. A nova
edição premium GKE Enterprise
oferece todos os recursos acima, além de gerenciamento, governança,
segurança e configuração para várias equipes e
clusters, tudo isso em um console unificado e
com malha de serviço integrada.
Experiência sem servidor
do Kubernetes com o Autopilot
O Autopilot do GKE
é um modo de operações práticas que gerencia a computação
do cluster (sem necessidade de configuração e
monitoramento) enquanto oferece uma experiência completa do
Kubernetes. Além disso, com o
faturamento por pod,
o modo Autopilot garante que você pague apenas pelos pods em execução, e não
por componentes do sistema, overhead do sistema operacional ou
capacidades não alocadas, o que proporciona até 85% de economia em recursos e eficiência
operacional. Os modos de operações Autopilot e Standard estão
disponíveis na edição GKE Enterprise.
Os clusters conectados a redes privadas no GKE podem ser restritos a um endpoint particular ou
público que só pode ser acessado por alguns intervalos de
endereços. O GKE Sandbox
para o modo de operação Standard fornece uma segunda
camada de defesa entre cargas de trabalho em contêiner
no GKE para
melhorar a segurança delas.
Os clusters do GKE têm suporte nativo à Política de rede do Kubernetes para
restringir o tráfego usando regras de firewall no nível dos pods.
O GKE implementa a API
Kubernetes completa, o escalonamento automático de quatro direções, canais de lançamento,
suporte a vários clusters e
escalona até 15.000 nós.
O escalonamento automático horizontal de pods pode ser baseado no uso da CPU
ou em métricas personalizadas. O escalonamento automático de clusters funciona
com base em um pool de nós, e o escalonamento automático vertical de pods
analisa continuamente o uso da CPU e da memória dos pods,
ajustando automaticamente as solicitações de CPU e memória.
Acesse
soluções conteinerizadas prontas para empresas
com modelos de implantação pré-criados, portabilidade,
licenciamento simplificado e faturamento consolidado. Tais soluções
não são apenas imagens de contêineres, e sim aplicativos comerciais e de código aberto
criados pelo Google, que aumentam a produtividade do desenvolvedor. Clique para implantar no local ou
em nuvens de terceiros pelo
Google Cloud Marketplace.
O GKE suporta GPUs e
TPUs e facilita a execução de ML, GPGPU, HPC e
outras cargas de trabalho que se beneficiam de aceleradores de
hardware especializados.
Gerenciamento de várias equipes com
escopos de equipe da frota
Use
frotas
para organizar clusters e cargas de trabalho e atribua recursos a
várias equipes com facilidade para melhorar a velocidade e delegar
propriedade. Usando os escopos, é possível definir subconjuntos de recursos
da frota por equipe, com cada escopo associado
a um ou mais clusters de membros da frota.
O Backup para GKE
é uma opção fácil que os clientes que executam
cargas de trabalho com estado no GKE podem usar para proteger, gerenciar e
restaurar aplicativos e dados conteinerizados.
Suporte a várias nuvens com
portabilidade de cargas de trabalho
O GKE executa o
Kubernetes certificado, permitindo a portabilidade da carga de trabalho para outras
plataformas do Kubernetes na nuvem e no local. Também é possível
executar seus apps em qualquer lugar com consistência usando o GKE no
Google Cloud, na AWS ou no Azure.
Suporte híbrido
Aproveite a
tecnologia do Kubernetes e da nuvem no seu data center
usando o
Google Distributed Cloud.
Tenha a experiência do GKE com instalações rápidas, gerenciadas e simples,
assim como upgrades validados pelo Google.
Malha de serviço gerenciada
Gerencie, acompanhe e
proteja seus serviços com a implementação pelo Google do
projeto avançado de código aberto do Istio. Simplifique a administração
e o monitoramento de tráfego com uma malha de serviço
totalmente gerenciada.
GitOps gerenciado
Crie e aplique
configurações e políticas de segurança consistentes a
clusters, frotas e equipes com a implantação gerenciada de configurações do
GitOps.
Gerenciamento de identidade e acesso
Controle o acesso no
cluster com suas contas do Google e permissões de
papéis.
Rede híbrida
Reserve um intervalo de endereços IP
para o cluster de forma que os IPs do cluster
coexistam com IPs de rede privada usando a VPN do Google Cloud.
Segurança e compliance
O GKE conta com o
suporte da equipe de segurança do Google com mais de 750 especialistas e
atende à HIPAA e ao PCI DSS.
Geração de registros e monitoramento integrados
Ative o Cloud Logging
e o Cloud Monitoring com configurações simples de
caixas de seleção para ter acesso aos detalhes da
execução do aplicativo.
Opções de cluster
Escolha clusters
adaptados aos requisitos de disponibilidade, de estabilidade da versão,
de isolamento e de tráfego de pods das cargas de trabalho.
Escalonamento automático
Faça o escalonamento automático
da implantação do seu aplicativo para mais ou para menos com base no
uso de recursos (CPU, memória).
Upgrade automático
Mantenha seu
cluster atualizado automaticamente com a mais recente versão de
lançamento do Kubernetes.
Reparo automático
Quando o reparo automático estiver
ativado, se ocorrer uma falha em um nó durante uma verificação de integridade,
o GKE iniciará um processo de reparo desse nó.
Limites de recursos
O Kubernetes permite
especificar a quantidade de CPU e memória (RAM)
necessária para cada contêiner, de forma a organizar melhor
as cargas de trabalho no cluster.
Isolamento de contêiner
Para ter mais
segurança, use o GKE Sandbox,
que oferece uma segunda camada de defesa entre as cargas de
trabalho conteinerizadas do GKE.
Suporte a aplicativos com estado
O GKE não funciona só para
apps de 12 fatores. É possível anexar armazenamento permanente a
contêineres e até mesmo hospedar bancos de dados inteiros.
Suporte a imagens do Docker
O GKE aceita o
formato de contêiner comum do Docker.
Sistema operacional criado para contêineres
O GKE é executado no
Container-Optimized OS, que é um sistema operacional reforçado criado e gerenciado pelo
Google.
Registro de contêiner particular
A integração com o
Google Container Registry facilita o armazenamento e o
acesso às imagens particulares do Docker.
Builds rápidos e consistentes
Use o Cloud Build para
implantar seus contêineres de forma confiável no GKE sem precisar
configurar a autenticação.
Painel integrado
O console do Google Cloud
oferece painéis úteis para os clusters do seu projeto e os
recursos deles. Use-os para
conferir, inspecionar, gerenciar e excluir recursos dos seus
clusters.
VMs spot
Instâncias de computação
com preços acessíveis, adequadas para jobs em lote e cargas de trabalho
tolerantes a falhas.
VMs spot
oferecem uma economia significativa de até 91%, mantendo o mesmo desempenho e recursos
que as VMs regulares.
Suporte a discos permanentes
Armazenamento
em blocos durável e de alto desempenho para instâncias de contêiner. Os dados
são armazenados de forma redundante para garantir a integridade, a flexibilidade para o redimensionamento
do armazenamento sem interrupção e a criptografia automática. Crie
discos permanentes
nos formatos HDD
ou SSD. Também é possível tirar snapshots
do seu disco permanente e criar novos discos
permanentes a partir deles.
Suporte a SSD local
O GKE oferece
armazenamento em blocos em unidade de estado sólido (SSD) local, sempre criptografado.
Os SSDs locais estão fisicamente conectados ao servidor que hospeda
a instância da máquina virtual para operações de entrada/saída
por segundo (IOPS) muito altas e latência muito baixa em comparação
com os discos permanentes.
Balanceamento de carga global
A tecnologia de balanceamento
de carga global ajuda você a distribuir solicitações recebidas
em todos os pools de instâncias em várias regiões.
Assim, você alcança os níveis máximos de desempenho, capacidade
e disponibilidade com baixo custo.
Suporte a Linux e Windows
Com suporte total às
cargas de trabalho do Linux e do Windows, o GKE pode executar
tanto os nós do Windows Server como do Linux.
Contêineres sem servidor
Execute contêineres
sem servidor e sem estado removendo todo o
gerenciamento de infraestrutura e escalonando-os automaticamente com o
Cloud Run.
Medição de uso
Visibilidade refinada
para seus clusters do Kubernetes. Confira o uso detalhado dos recursos dos seus clusters
do GKE por namespaces e rótulos e atribua-o a entidades
significativas.
Canais de lançamento
Os canais de lançamento
fornecem mais controle sobre quais atualizações automáticas um
determinado cluster recebe, com base nos requisitos de
estabilidade do cluster e das cargas de trabalho dele. Você pode escolher os canais rápido, regular ou estável. Cada um tem uma cadência de lançamento distinta e visa
diferentes tipos de cargas de trabalho.
Segurança da cadeia de suprimentos
de software
Verifique, aplique e
melhore a segurança de pacotes e componentes de infraestrutura
usados para imagens de contêiner com o Artifact Analysis.
Faturamento por segundo
O faturamento do Google é feito em
incrementos por segundo. Você paga somente pelo
tempo de computação que usar.
Como funciona
Um cluster do GKE tem um plano de controle e máquinas chamadas de
nós. Os nós executam os serviços
com suporte aos contêineres que compõem a carga de trabalho. O plano de controle
decide o que é executado nesses nós, incluindo
a programação e o escalonamento. Com o modo Autopilot, é possível gerenciar essa
complexidade. Basta implantar e executar os apps.
Simplificar
as implantações de vários clusters com frotas
Use frotas para simplificar o gerenciamento
de implantações de vários clusters, como
separar os ambientes de produção e de outros tipos
ou dividir os serviços por níveis,
locais ou equipes. As frotas servem para agrupar e
normalizar clusters do Kubernetes clusters. Assim, fica mais fácil
administrar a infraestrutura e adotar as práticas recomendadas pelo
Google.
Executar cargas de trabalho de IA otimizadas com segurança
Execute
cargas de trabalho de IA otimizadas com orquestração da plataforma
Uma plataforma de IA/ML robusta
considera as seguintes camadas: (i) orquestração
da infraestrutura que oferece suporte a GPUs para treinar e
veicular cargas de trabalho em escala; (ii) integração
flexível com computação distribuída e
frameworks de processamento de dados; e (iii) suporte a
várias equipes na mesma infraestrutura para
maximizar a utilização de recursos.
GPU compartilhada do GKE
que ajuda a procurar neutrinos
Confira o que as pessoas do Centro
de Supercomputadores de San Diego (SDSC, na sigla em inglês) e da Universidade de
Wisconsin-Madison contam sobre como o compartilhamento de GPU no Google
Kubernetes Engines está ajudando a detectar
neutrinos no Polo Sul com o gigantesco
Observatório IceCube Neutrino.
Neste laboratório, você vai conferir
como criar um pipeline de entrega contínua usando
o Google Kubernetes Engine, o Google Cloud Source
Repositories, o Google Cloud Build e o
Spinnaker. Depois de criar um aplicativo de amostra,
configure esses serviços para criar, testar e implantar
automaticamente o aplicativo.
Crie um app da Web conteinerizado,
faça um teste no local e implante em um cluster do Google
Kubernetes Engine (GKE), tudo isso diretamente no
Editor do Cloud Shell. Ao final deste breve tutorial,
você vai entender como criar, editar e depurar um
app Kubernetes.
Um grande banco digital
com sede em Nova York agora hospeda a maioria dos apps
em contêineres do Docker, incluindo a API GraphQL, essencial
para os negócios, e usa o GKE para automatizar a implantação
de clusters e o gerenciamento de
apps conteinerizados.
Como migrar
um aplicativo de duas camadas para o GKE
Use o Migrate to Containers para mover e converter cargas de trabalho
diretamente nos contêineres do GKE. Migre um aplicativo de pilha LAMP
de duas camadas, com VMs de app e de banco de dados,
do VMware para o GKE.
Trabalhe com um parceiro confiável
para implantar o Google Kubernetes Engine no local e levar o gerenciamento
de alto nível do Kubernetes para uma infraestrutura particular. Ou
acesse serviços de migração no Google Cloud
Marketplace.
Depois que os créditos gratuitos
forem usados, o custo total será baseado na edição, no modo de
operação do cluster e nas taxas de entrada aplicáveis e de
gerenciamento de clusters.
Nível gratuito
O
nível gratuito do GKE
oferece US$ 74,40 em créditos mensais para cada conta de faturamento
aplicada a clusters zonais e do Autopilot.
Grátis
Kubernetes
Enterprise edition
Inclui recursos da edição Standard,
operações de autoatendimento e de várias equipes e clusters,
segurança avançada, malha de serviço, configuração e um
console unificado.
US$ 0,0083
por vCPU a cada hora
Standard edition
Inclui gerenciamento totalmente automatizado do ciclo de vida dos clusters,
escalonamento automático de pods e clusters, visibilidade de custos e
otimização automatizada de custos da infraestrutura.
US$ 0,10
por cluster a cada hora
Computação
Modo Autopilot: CPU, memória e
recursos de computação provisionados para seus pods.
Depois que os créditos gratuitos forem usados, o custo total será
baseado na edição, no modo de operação do cluster e nas taxas de entrada aplicáveis
e de gerenciamento de clusters.
Serviço
Descrição
Preço (USD)
Nível gratuito
O
nível gratuito do GKE
oferece US$ 74,40 em créditos mensais para cada conta de faturamento
aplicada a clusters zonais e do Autopilot.
Grátis
Kubernetes
Enterprise edition
Inclui recursos da edição Standard,
operações de autoatendimento e de várias equipes e clusters,
segurança avançada, malha de serviço, configuração e um
console unificado.
US$ 0,0083
por vCPU a cada hora
Standard edition
Inclui gerenciamento totalmente automatizado do ciclo de vida dos clusters,
escalonamento automático de pods e clusters, visibilidade de custos e
otimização automatizada de custos da infraestrutura.
US$ 0,10
por cluster a cada hora
Computação
Modo Autopilot: CPU, memória e
recursos de computação provisionados para seus pods.