Neste documento, descrevemos o processo de planejamento e as etapas para uma instalação somente de software do Google Distributed Cloud para VMware. Esse é um processo de vários estágios, em que você precisa tomar decisões sobre o tipo de configuração que atenderá às suas necessidades organizacionais. Talvez você precise da ajuda de outras pessoas, como o administrador de rede, para configurar uma infraestrutura do vSphere e fornecer as informações necessárias para concluir arquivos de configuração.
Esta página é destinada a administradores, arquitetos e operadores que configuram, monitoram e gerenciam a infraestrutura de tecnologia. Para saber mais sobre papéis comuns e tarefas de exemplo referenciados no conteúdo do Google Cloud, consulte Tarefas e funções de usuário comuns do GKE Enterprise.
Antes de começar
Antes de ler este documento, conheça bem os seguintes tópicos:
Kubernetes
VMware
Visão geral das etapas de instalação
Estas são as principais etapas envolvidas na instalação do Google Distributed Cloud:
Planeje a instalação.
Configure o ambiente do vSphere.
Configure os recursos do Cloud, incluindo um projeto do Google Cloud e contas de serviço.
Criar uma estação de trabalho de administrador. A estação de trabalho de administrador é uma máquina que tem as ferramentas necessárias para criar clusters.
Na estação de trabalho do administrador, crie um cluster de administrador. Um cluster de administrador é um ponto de gerenciamento para um conjunto de clusters de usuário que executam suas cargas de trabalho.
Crie um ou mais clusters de usuário.
Implante uma carga de trabalho em um cluster de usuários.
1. Planejar a instalação
O Google Distributed Cloud oferece uma maneira de criar clusters do Google Kubernetes Engine (GKE) em um ambiente do vSphere no seu ambiente local.
Suas cargas de trabalho são executadas em clusters de usuário, e os clusters de usuário são gerenciados por um cluster de administrador. O diagrama a seguir mostra um cluster de administrador que gerencia dois clusters de usuário. O cluster de usuário 1 tem oito nós, e o de usuário 2 tem cinco nós. Os clusters de usuários mostrados no diagrama têm o Controlplane V2 ativado, o que significa que o plano de controle de um cluster de usuário é executado no próprio cluster.
O diagrama anterior ilustra estes pontos:
Um cluster de usuário tem nós de plano de controle e nós de trabalho. O plano de controle do Kubernetes é executado nos nós do plano de controle, e os workloads são executados nos nós de worker.
Os componentes do plano de controle do Kubernetes para um cluster são executados em um ou mais nós no próprio cluster.
A estação de trabalho do administrador é uma máquina separada dos clusters.
Planejar seus clusters de usuário
Pense no número de clusters de usuário que você pretende criar e em quantos nós cada cluster terá. Por exemplo, você talvez queira criar clusters separados para departamentos diferentes na sua organização. Talvez seja necessário que alguns clusters sejam compatíveis com tráfego intenso de clientes, enquanto outros clusters precisem ser compatíveis apenas com tráfego interno leve.
Pense em quais cargas de trabalho precisam estar altamente disponíveis. Em seguida, decida quais clusters de usuário precisam ter um plano de controle de alta disponibilidade (HA, na sigla em inglês) e quais clusters funcionam adequadamente com um plano de controle que não é de HA. Um plano de controle de alta disponibilidade requer três nós, e um plano de controle sem HA requer apenas um nó.
Planejar o balanceamento de carga e a rede
Leia sobre as opções de balanceamento de carga para sua instalação e decida o tipo de balanceador de carga ideal para você. Dependendo da opção escolhida, talvez seja necessário configurar o balanceador de carga antes de criar os clusters.
Leia sobre as opções de conexão com o Google e decida o melhor tipo para você.
2. Configurar o ambiente vSphere
Consiga as licenças necessárias do vSphere.
Configure uma rede física que tenha uma máquina para executar o servidor vCenter e várias máquinas para executar o hipervisor ESXi. Instale o vCenter Server em uma máquina física e o ESXi em várias máquinas físicas. Essas máquinas físicas são chamadas de hosts.
Configure o armazenamento físico para seu ambiente do vSphere.
Planejar seus endereços IP
Decida como você quer que os nós de cluster recebam os endereços IP deles. As opções são:
- De um servidor DHCP fornecido por você.
- A partir de uma lista de endereços IP estáticos fornecidos.
Em ambos os casos, verifique se há endereços IP suficientes disponíveis para os nós do cluster e endereços IP virtuais (VIPs) que precisam ser configurados no balanceador de carga. Para mais informações, consulte Planejar seus endereços IP.
Configurar a hierarquia de objetos do vSphere
Use sua instância do vCenter Server para criar um ou mais data centers do vSphere. Um data center do vSphere não é o mesmo que uma criação física. Às vezes, um data center do vSphere é chamado de data center virtual. Use sua instância do vCenter Server para adicionar objetos de inventário do vSphere aos seus data centers. Esses objetos de inventário incluem cluster, pool de recursos, rede, datastore e pasta.
Como usar clusters do vSphere separados
Considere se você quer que os clusters do GKE estejam no mesmo cluster do vSphere ou em clusters separados. Por exemplo, é possível ter o cluster de administrador em um cluster do vSphere e os clusters de usuário em um cluster diferente. Ou você pode ter cada cluster de usuário em seu próprio cluster do vSphere.
O diagrama a seguir ilustra uma configuração do vSphere que você pode usar se quiser colocar um cluster de administrador em um cluster do vSphere e um cluster de usuário em um cluster diferente do vSphere:
Como usar data centers separados
Outra opção é ter seus clusters do GKE em data centers separados.
O diagrama a seguir ilustra uma configuração do vSphere que pode ser usada para colocar um cluster de administrador em um data center e outro de usuário em outro:
Para mais informações sobre a configuração do ambiente do vSphere, consulte:
3. Configurar recursos do Google Cloud
Antes de criar sua estação de trabalho de administrador, instale a Google Cloud CLI, crie um projeto do Google Cloud e crie contas de serviço. Para instruções, consulte:
Instale a CLI do Google Cloud. A Google Cloud CLI é um conjunto de ferramentas para criar e gerenciar recursos do Google Cloud.
Criar projetos do Google Cloud Um projeto do Google Cloud oferece uma maneira de organizar seus recursos do Google Cloud. Você precisa ter pelo menos um projeto do Google Cloud. Ao criar um cluster de usuário, você precisa registrar o cluster em uma frota, o que exige que você especifique um projeto host de frota.
Criar contas de serviço. O Google Distributed Cloud usa contas de serviço do Google Cloud com permissões específicas para fazer o download de componentes do cluster do Google Cloud, registrar clusters em uma frota e realizar outras tarefas.
4. Criar uma estação de trabalho de administrador
A estação de trabalho de administrador é uma máquina usada para criar e gerenciar clusters. A estação de trabalho do administrador pode ser uma VM no ambiente do vSphere ou uma máquina separada do ambiente do vSphere.
Para instruções sobre como criar uma estação de trabalho de administrador, consulte Criar uma estação de trabalho de administrador.
5. Criar um cluster de administrador
O cluster de administrador gerencia um ou mais clusters de usuário. É necessário criar um cluster de administrador antes de criar clusters de usuário para executar as cargas de trabalho. Para mais informações, consulte Criar um cluster de administrador.
Registre o cluster com a API Anthos On-Prem:
Se quiser, registre o cluster de administrador na API GKE On-Prem. O registro do cluster de administrador na API GKE On-Prem permite usar ferramentas padrão (o console do Google Cloud, a CLI do Google Cloud ou o Terraform) para fazer upgrade de clusters de usuário gerenciados pelo cluster de administrador. A API GKE On-Prem armazena metadados de estado do cluster no Google Cloud. Esses metadados permitem que a API gerencie o ciclo de vida do cluster
de usuário e não incluem dados específicos da carga de trabalho. As ferramentas padrão usam a API GKE On-Prem para gerenciar o ciclo de vida do cluster do usuário e, coletivamente, são chamadas de clientes da API GKE On-Prem. Registrar o
cluster de administrador também permite executar comandos gcloud
para
receber informações sobre o cluster de administrador.
O Google Distributed Cloud oferece as seguintes maneiras de registrar seu cluster de administrador na API GKE On-Prem:
Antes da criação do cluster: inclua a seção
gkeOnPremAPI
no arquivo de configuração do cluster de administrador.Depois que o cluster for criado: use a CLI gcloud para registrar o cluster.
6. Criar clusters de usuários
Depois de criar um cluster de administrador, crie um ou mais clusters de usuário.
É possível criar clusters de usuário usando ferramentas padrão, como o
console, a CLI gcloud ou o Terraform, ou executando
gkectl
na estação de trabalho do administrador. Para mais informações sobre como usar as
ferramentas padrão, consulte
Escolher uma ferramenta para gerenciar o ciclo de vida do cluster.
Para criar um cluster de usuário usando uma ferramenta padrão, consulte Criar um cluster de usuário (console | gcloud-cli | Terraform). Quando você cria um cluster do usuário usando uma ferramenta padrão, ele é registrado automaticamente na API GKE On-Prem.
Para criar um cluster de usuário usando
gkectl
, siga as instruções em Criar um cluster de usuário (gkectl). Opcionalmente, é possível registrar seu cluster de usuário na API GKE On-Prem. O Google Distributed Cloud oferece as seguintes maneiras de registrar seu cluster de usuário na API GKE On-Prem se você usargkectl
para criar o cluster:Antes da criação do cluster: inclua a seção
gkeOnPremAPI
no arquivo de configuração do cluster de usuário.Depois que o cluster for criado: use a CLI gcloud para registrar o cluster.
7. Implantar uma carga de trabalho em um cluster de usuários
Para saber como criar uma implantação, um serviço e uma Entrada em um cluster de usuário, consulte:
A seguir
Inicie o processo de instalação configurando sua infraestrutura local.