Panoramica dell'installazione di Google Distributed Cloud

Questo documento descrive il processo di pianificazione e i passaggi per installare Google Distributed Cloud. Si tratta di un processo in più fasi, durante il quale devi prendere decisioni sul tipo di configurazione che soddisfa le esigenze della tua organizzazione. Potresti aver bisogno di assistenza da parte di altri, ad esempio l'amministratore di rete, per configurare un'infrastruttura vSphere e fornirti le informazioni necessarie per completare i file di configurazione.

Prima di iniziare

Prima di leggere questo documento, è necessario conoscere quanto segue:

Panoramica della procedura di installazione

Di seguito sono riportati i passaggi principali necessari per l'installazione di Google Distributed Cloud:

  1. Pianifica l'installazione.

  2. Configura il tuo ambiente vSphere.

  3. Configurare le risorse Cloud, inclusi un progetto Google Cloud e gli account di servizio.

  4. Crea una workstation di amministrazione. La workstation di amministrazione è una macchina che contiene gli strumenti necessari per creare i cluster.

  5. Dalla tua workstation di amministrazione, crea un cluster di amministrazione. Un cluster di amministrazione è un punto di gestione per un insieme di cluster utente che eseguono i tuoi carichi di lavoro.

  6. Crea uno o più cluster utente.

  7. Eseguire il deployment di un carico di lavoro su un cluster utente.

1. Pianifica l'installazione

Google Distributed Cloud fornisce un modo per creare cluster Google Kubernetes Engine (GKE) in un ambiente vSphere on-premise.

I carichi di lavoro vengono eseguiti sui cluster utente e i cluster utente sono gestiti da un cluster di amministrazione. Il seguente diagramma mostra un cluster di amministrazione che gestisce due cluster utente. Il cluster utente 1 ha otto nodi e il cluster utente 2 ha cinque nodi. Nei cluster utente mostrati nel diagramma è abilitato il piano di controllo V2, il che significa che il piano di controllo per un cluster utente viene eseguito nel cluster utente stesso.

Diagramma di un cluster di amministrazione e di due cluster utente
Architettura di GKE on VMware con due cluster utente (fai clic per ingrandire)

Il diagramma precedente illustra questi punti:

  • Un cluster utente include nodi del piano di controllo e nodi worker. Il piano di controllo Kubernetes viene eseguito sui nodi del piano di controllo, mentre i carichi di lavoro vengono eseguiti sui nodi worker.

  • I componenti del piano di controllo Kubernetes per un cluster vengono eseguiti su uno o più nodi nel cluster stesso.

  • La workstation di amministrazione è una macchina separata dai cluster.

Pianifica i cluster utente

Pensa in anticipo a quanti cluster utente intendi creare e a quanti nodi vuoi che abbia ogni cluster utente. Ad esempio, potresti voler creare cluster separati per reparti diversi della tua organizzazione. Alcuni cluster potrebbero dover supportare un traffico intenso dei clienti, mentre altri cluster potrebbero dover supportare solo il traffico interno leggero.

Pensa a quali carichi di lavoro devono essere ad alta disponibilità. Decidi quindi quali cluster utente devono avere un piano di controllo ad alta disponibilità e quali cluster funzionerebbero in modo adeguato con un piano di controllo non ad alta disponibilità. Un piano di controllo ad alta disponibilità richiede tre nodi, mentre un piano di controllo non ad alta disponibilità richiede solo un nodo.

Pianifica la rete e il bilanciamento del carico

Leggi le opzioni di bilanciamento del carico per la tua installazione e decidi quale tipo di bilanciatore del carico è più adatto alle tue esigenze. A seconda dell'opzione scelta, potrebbe essere necessario configurare il bilanciatore del carico prima di creare i cluster.

Scopri le opzioni per connetterti a Google e decidi quale tipo di connessione è più adatto a te.

2. Configura il tuo ambiente vSphere

Ottieni le licenze vSphere necessarie.

Configura una rete fisica con una macchina per eseguire vCenter Server e diverse macchine per l'hypervisor ESXi. Installa vCenter Server su una macchina fisica e installa ESXi su più macchine fisiche. Queste macchine fisiche sono chiamate host.

Configura l'archiviazione fisica per il tuo ambiente vSphere.

Pianifica gli indirizzi IP

Decidi come vuoi che i nodi del cluster ricevano i propri indirizzi IP. Le opzioni sono:

  • Da un server DHCP fornito da te.
  • Da un elenco di indirizzi IP statici forniti da te.

In entrambi i casi, assicurati che siano disponibili indirizzi IP sufficienti per nodi e indirizzi IP virtuali (VIP) del cluster che devono essere configurati sul bilanciatore del carico. Per ulteriori informazioni, vedi Pianificare gli indirizzi IP.

Configura la gerarchia degli oggetti vSphere

Utilizza la tua istanza di vCenter Server per creare uno o più data center vSphere. Ricorda che un data center vSphere non è la stessa cosa di un edificio fisico. A volte un data center vSphere è chiamato data center virtuale. Utilizza la tua istanza di vCenter Server per aggiungere oggetti di inventario vSphere ai tuoi data center. Questi oggetti di inventario includono cluster, pool di risorse, rete, datastore e cartella.

Utilizzo di cluster vSphere separati

Valuta se vuoi che i tuoi cluster GKE siano nello stesso cluster vSphere o in cluster vSphere separati. Ad esempio, potresti avere il tuo cluster di amministrazione in un cluster vSphere e i tuoi cluster utente in un cluster vSphere diverso. Oppure potresti avere ciascun cluster utente nel proprio cluster vSphere.

Il seguente diagramma illustra una configurazione di vSphere che puoi utilizzare se vuoi inserire un cluster di amministrazione in un cluster vSphere e un cluster utente in un cluster vSphere diverso:

Diagramma di un data center con due cluster vSphere
Configurazione di vSphere con un data center e due cluster vSphere (fai clic per ingrandire)

Utilizzo di data center separati

Un'altra opzione è avere i cluster GKE in data center separati.

Il seguente diagramma illustra una configurazione di vSphere che puoi utilizzare per inserire un cluster di amministrazione in un data center e un cluster utente in un altro data center:

Diagramma di due data center
Configurazione di vSphere con due data center (fai clic per ingrandire)

Per ulteriori informazioni sulla configurazione del tuo ambiente vSphere, consulta:

3. configura le risorse Google Cloud

Prima di creare la workstation di amministrazione, devi installare Google Cloud CLI, creare un progetto Google Cloud e creare gli account di servizio. Per istruzioni, vedi:

  • Installa Google Cloud CLI. Google Cloud CLI è un set di strumenti per creare e gestire le risorse Google Cloud.

  • Creare progetti Google Cloud Un progetto Google Cloud consente di organizzare le risorse Google Cloud. Devi avere almeno un progetto Google Cloud. Quando crei un cluster utente, devi registrarlo in un parco risorse, il che richiede la specifica di un progetto host del parco risorse.

  • Crea gli account di servizio. Google Distributed Cloud utilizza account di servizio Google Cloud con autorizzazioni specifiche per scaricare i componenti del cluster da Google Cloud, registrare i cluster in un parco risorse ed eseguire altre attività.

4. Creazione di una workstation di amministrazione

La workstation di amministrazione è una macchina che utilizzi per creare e gestire i cluster. La workstation di amministrazione può essere una VM nell'ambiente vSphere o una macchina separata dall'ambiente vSphere.

Per istruzioni su come creare una workstation di amministrazione, vedi Creare una workstation di amministrazione.

5. Crea un cluster di amministrazione

Il cluster di amministrazione gestisce uno o più cluster utente. Devi creare un cluster di amministrazione prima di creare i cluster utente per l'esecuzione dei carichi di lavoro. Per ulteriori informazioni, consulta Creare un cluster di amministrazione.

Registra il cluster nell'API Anthos On-Prem

Facoltativamente, registra il cluster di amministrazione nell'API GKE On-Prem. La registrazione del tuo cluster di amministrazione nell'API GKE On-Prem ti consente di utilizzare strumenti standard (la console Google Cloud, Google Cloud CLI o Terraform) per eseguire l'upgrade dei cluster utente gestiti dal cluster di amministrazione. L'API GKE On-Prem archivia i metadati dello stato del cluster in Google Cloud. Questi metadati consentono all'API di gestire il ciclo di vita del cluster utente e non includono dati specifici dei carichi di lavoro. Gli strumenti standard utilizzano l'API GKE On-Prem per gestire il ciclo di vita dei cluster utente e collettivamente sono definiti client dell'API GKE On-Prem. La registrazione del cluster di amministrazione ti consente anche di eseguire i comandi gcloud per ricevere informazioni sul cluster di amministrazione.

Google Distributed Cloud fornisce i seguenti modi per registrare il tuo cluster di amministrazione nell'API GKE On-Prem:

6. Creazione di cluster utente

Dopo aver creato un cluster di amministrazione, puoi creare uno o più cluster utente. Puoi creare cluster utente utilizzando gli strumenti standard (console, gcloud CLI o Terraform) oppure eseguendo gkectl sulla workstation di amministrazione. Per ulteriori informazioni sull'utilizzo degli strumenti standard, consulta Scegliere uno strumento per gestire il ciclo di vita dei cluster.

  • Per creare un cluster utente utilizzando uno strumento standard, consulta Creare un cluster utente (Console | gcloud-cli | Terraform). Quando crei un cluster utente utilizzando uno strumento standard, il cluster viene registrato automaticamente nell'API GKE On-Prem.

  • Per creare un cluster utente utilizzando gkectl, segui le istruzioni in Creare un cluster utente (gkectl). Facoltativamente, puoi registrare il cluster utente nell'API GKE On-Prem. Google Distributed Cloud fornisce i seguenti modi per registrare il tuo cluster utente nell'API GKE On-Prem se utilizzi gkectl per creare il cluster:

7. Esegui il deployment di un carico di lavoro su un cluster utente

Per scoprire come creare un deployment, un servizio e un Ingress su un cluster utente, consulta:

Che cosa succede dopo?

Avvia il processo di installazione configurando l'infrastruttura on-premise.