Requisiti di sistema

GKE On-Prem richiede quanto segue:

Prima di iniziare, ti consigliamo di leggere la panoramica di GKE On-Prem.

Requisiti hardware

GKE On-Prem ti consente di scegliere tra una vasta gamma di opzioni hardware. Per informazioni sui requisiti hardware ereditati da vSphere, consulta la specifica hardware VMware/vSphere 6.5.

Google collabora con diversi partner OEM per fornire soluzioni hardware convalidate. Scegli tra queste opzioni sia per ottenere soluzioni di lavoro note sia per usufruire dei vantaggi della collaborazione collaborativa (in cui Google e i nostri partner collaborano per risolvere i problemi di installazione).

Al momento i nostri partner OEM includono quanto segue. Man mano che nuove piattaforme e partner entrano in contatto con la famiglia di soluzioni Anthos, questo elenco verrà aggiornato:

  • Cisco
  • Dell
  • HPE
  • Intel
  • Lenovo

Requisiti di vSphere

Installi GKE On-Prem in un ambiente VMware vSphere 6.5. Per informazioni sull'installazione di vSphere, consulta la panoramica della procedura di installazione e configurazione di vSphere nella documentazione di VMware.

vSphere 6.5 include i seguenti componenti:

Segui le sezioni riportate di seguito per scoprire come configurare un'installazione vSphere esistente da utilizzare con GKE On-Prem.

Requisiti della versione e della licenza

Attualmente GKE On-Prem richiede VMware vSphere 6.5. In particolare, sono necessari i seguenti prodotti VMware con licenza:

  • VMware ESXI 6.5, con una versione Enterprise Plus, installata su ciascuno degli host nel tuo data center.
  • VMware vCenter 6.5, con una versione di licenza Standard, installata su un host nel tuo data center.

Per ulteriori informazioni, consulta le seguenti risorse VMware:

Privilegi dell'account utente vCenter

L'account utente vSphere utilizzato per installare i cluster GKE On-Prem deve disporre dei privilegi sufficienti. L'account amministratore vCenter fornisce ai suoi utenti l'accesso completo a tutti gli oggetti vCenter.

In alternativa, puoi scegliere di creare un ruolo personalizzato con il set minimo di privilegi richiesto, descritto nella tabella che segue.

Per informazioni su come gestire le autorizzazioni, consulta Gestione delle autorizzazioni per i componenti vCenter.

Macchine virtuali create durante l'installazione

Durante una nuova installazione, GKE On-Prem crea diverse macchine virtuali (VM, o "nodi") in vSphere. La tabella seguente descrive queste specifiche e VM e il loro scopo.

Inoltre, GKE On-Prem crea un disco permanente da 100 GB per archiviare i dati del cluster di amministrazione.

Cluster di amministrazione

Nome Prefisso di sistema Campo di configurazione Specifiche Scopo
Piano di controllo del cluster di amministrazione gke-admin-master N/A
  • 4 vCPU
  • 16384 MB di RAM
  • 40 GB di spazio su disco rigido

Esegue il piano di controllo dell'amministratore nel cluster di amministrazione.

VM componenti aggiuntivi gke-admin-node N/A

Due VM in esecuzione con le seguenti specifiche:

  • 4 vCPU
  • 16384 MB di RAM
  • 40 GB di spazio su disco rigido

Esegui i componenti aggiuntivi del piano di controllo dell'amministratore nel cluster di amministrazione.

Piano di controllo del cluster utente [USER_CLUSTER_NAME]-user-N usercluster.masternode
  • 4 vCPU
  • 8192 MB di RAM
  • 40 GB di spazio su disco rigido

Ogni cluster utente ha un proprio piano di controllo. Le VM del piano di controllo utente vengono eseguite nel cluster di amministrazione. Puoi scegliere di creare uno o tre piani di controllo utente. Se scegli di creare tre piani di controllo utente, GKE On-Prem crea tre VM, una per ogni piano di controllo, con queste specifiche.

Cluster utenti

Nome Prefisso di sistema Campo di configurazione Specifiche Scopo
Nodi worker del cluster utente [USER_CLUSTER_NAME]-user usercluster.workernode

Questi sono i valori predefiniti per i nodi worker del cluster utente:

  • 4 vCPU
  • 8192 MB di RAM
  • 40 GB di spazio su disco rigido

Un "nodo" di un cluster utente (noto anche come "computer") è una macchina virtuale in cui vengono eseguiti i carichi di lavoro. Quando crei un cluster utente, decidi quanti nodi deve essere eseguito. La configurazione richiesta per ciascun nodo dipende dai carichi di lavoro in esecuzione.

Per informazioni sul numero massimo di cluster e nodi che puoi creare, consulta la sezione Quote e limiti.

Puoi aggiungere o rimuovere VM da un cluster utente esistente. Vedi Ridimensionare un cluster.

PersistentVolumeClaim nei cluster di amministrazione e degli utenti

Il datastore vSphere deve avere spazio per soddisfare le richieste di volume PersistentVolumeClaim (PVC) provenienti dalla suite operativa di Prometheus e Google Cloud nell'amministratore e nei cluster utente. Ad esempio, Prometheus ha bisogno di spazio di archiviazione sufficiente per qualche giorno di metriche e la suite operativa di Google Cloud richiede spazio di archiviazione per memorizzare i buffer durante un'interruzione di rete.

Ogni cluster ha le seguenti PVC:

  • Statefulset Local Prometheus: 250 GiB * 2 repliche = 500 GiB
  • Stackdriver Prometheus statefulset: 250 GiB * 1 repliche = 250 GiB
  • Aggregatore di log StatefulSet: 100 GiB * 2 repliche = 200 GiB

Protocollo orario di rete

Tutte le VM nel tuo ambiente vSphere devono utilizzare lo stesso server Network Time Protocol (NTP).

Se la workstation di amministrazione e i nodi del cluster utilizzano indirizzi IP statici, devi specificare l'indirizzo IP di un server NTP nel campo tod del file hostconfig.

Se la workstation di amministrazione e i nodi del cluster ricevono gli indirizzi IP da un server DHCP, puoi configurare il server DHCP in modo che fornisca l'indirizzo di un server NTP. Se DHCP non specifica un server NTP, GKE On-Prem utilizza ntp.ubuntu.com per impostazione predefinita.

Requisiti del bilanciatore del carico

GKE On-Prem dispone di due modalità di bilanciamento del carico: integrata e manuale. La modalità integrata supporta F5 BIG-IP. La modalità manuale supporta i seguenti bilanciatori del carico:

  • Citrix
  • Seesaw

Indipendentemente dal bilanciatore del carico che scegli, il tuo ambiente deve soddisfare i seguenti requisiti di networking.

Mettere da parte i VIP per il bilanciamento del carico

Devi mettere da parte alcuni VIP che intendi utilizzare per il bilanciamento del carico. Metti da parte un VIP per ognuno dei seguenti scopi:

Componente Descrizione
Piano di controllo dell'amministratore

Accede al server API Kubernetes del pannello di amministrazione. Il file kubeconfig del cluster di amministrazione fa riferimento a questo VIP nel suo campo server.

Componenti aggiuntivi del piano di controllo dell'amministratore

Gestisce le comunicazioni tra le VM dei componenti aggiuntivi del piano di controllo dell'amministratore.

Ingresso piano di controllo amministratore

Utilizzato per interagire con i servizi in esecuzione all'interno del cluster di amministrazione. Istio gestisce il traffico in entrata nel cluster e i servizi devono essere configurati esplicitamente per l'accesso esterno.

Un VIP per ogni piano di controllo del cluster utente

Consentono l'accesso a ogni cluster utente' Server API Kubernetes. Ogni file kubeconfig del cluster utente fa riferimento a uno di questi VIP.

Un VIP per ogni controller in entrata del cluster utente

Utilizzato per interagire con i servizi in esecuzione nei cluster utente.

Un VIP per gli upgrade dei cluster

Utilizzato da GKE On-Prem durante gli upgrade dei cluster.

Mettere da parte i blocchi CIDR

Devi mettere da parte i blocchi dell'ID cliente per i seguenti intervalli:

Range

Descrizione

Intervallo IP dei pod

  • Blocco CIDR IPv4 (/C) riservato per gli IP dei pod di Kubernetes. Da questo intervallo, vengono assegnati intervalli più piccoli di /24 per nodo. Se hai bisogno di un cluster di nodi N, assicurati che /C sia abbastanza grande da supportare blocchi N /24.
  • Devi mettere da parte un intervallo IP del pod per il cluster di amministrazione e un intervallo IP del pod per ogni cluster utente che intendi creare.
  • Ad esempio, se il cluster può crescere fino a 10 nodi, /C deve essere un blocco /20 poiché supporta fino a 16 intervalli /24 al di sotto.

Intervallo IP del servizio

  • Blocco CIDR IPv4 (/S) riservato per gli IP del servizio Kubernetes. La dimensione del blocco determina il numero di servizi. Sono necessari un IP di servizio per il controller Ingress stesso e 10 o più IP per i servizi Kubernetes come DNS del cluster e così via.
  • Devi mettere da parte un intervallo di indirizzi IP di servizio per il cluster di amministrazione e un intervallo di indirizzi IP per i servizi per ogni cluster utente che intendi creare. Non utilizzare lo stesso intervallo di IP di servizio per il cluster di amministrazione e i cluster utente.
  • Usa un blocco /24 (256 IP) o un blocco più grande. Intervalli inferiori a /24 possono limitare il numero di servizi che possono essere ospitati per cluster.

Apri il firewall per gli eventi del ciclo di vita dei cluster

Assicurati che il firewall consenta il seguente traffico. Se non diversamente indicato, il protocollo predefinito è TCP:

Da

To

Eventi del ciclo di vita

Piano di controllo dell'amministratore, piani di controllo dell'utente, nodi del cluster utente

Accesso in uscita a *.googleapis.com, che risolve gli intervalli IP di Google netblock (porta 443) per l'accesso a Google Cloud Storage e Container Registry.

  • Bootstrap di cluster
  • Aggiunta o riparazione di macchine cluster

VM di piano di controllo amministratore e utente

IP vCenter (porta 443)

Aggiungi nuove macchine

VM della workstation di amministrazione

IP vCenter (porta 443)

Avvio bootstrap del cluster

VM della workstation di amministrazione

SSH (porta 22) ai piani di controllo amministratore e utente

  • Avvio bootstrap del cluster
  • Upgrade del piano di controllo

Requisiti e vincoli per la connettività di servizi e pod

Durante la preparazione per GKE On-Prem, considera le seguenti aree di connettività:

Categoria

Requisito/vincolo

Routing

Devi assicurarti che le VM vSphere siano in grado di instradarle le une alle altre.

Intervalli IP

Per il cluster di amministrazione e per ciascun cluster utente che intendi creare, devi mettere da parte due blocchi IPv4 CIDR distinti: uno per gli IP dei pod e uno per gli IP di servizio.

SSL

N/A

Incapsulamento

Il provider CNI da utilizzare è Calico.

Requisiti e vincoli per i cluster

Durante la pianificazione dei cluster GKE On-Prem, considera le seguenti aree:

Categoria

Requisito/vincolo

Routing

  • Solo F5 BIG-IP di F5: accesso API al piano di controllo F5 BIG-IP che supporta l'utilizzo di IP virtuali per bilanciare il carico tra le VM vSphere.
  • Devi configurare la tua rete in modo da instradare gli IP virtuali che verranno configurati sul bilanciatore del carico.
  • Devi configurare il bilanciatore del carico in modo che sia in grado di instradarlo ai nodi del cluster. Per F5 BIG-IP, i servizi nodo nei cluster vengono esposti come VIP L4. Per altri bilanciatori del carico, puoi configurare manualmente i servizi NodePort in modo che siano esposti come VIP L4.

Rilevabilità dei servizi

Per ogni cluster utente che utilizza traffico in entrata con HTTPS, aggiungi voci DNS che indirizzino al VIP per il controller in entrata del cluster.

Requisiti BIG-IP di F5

F5 BIG-IP si integra con GKE On-Prem, rendendolo la scelta consigliata Scopri come installare F5 BIG-IP.

Per configurare il bilanciatore del carico BIG-IP di F5, segui le istruzioni riportate di seguito:

Autorizzazioni account utente BIG-IP di F5

GKE On-Prem richiede un account utente F5 BIG-IP con il ruolo Amministratore. Consulta la documentazione di Ruoli utente di F5.

Durante l'installazione, fornisci a GKE On-Prem le tue credenziali F5 BIG-IP. L'account fornito deve avere il ruolo di amministratore in base alla guida all'uso del container container F5, in cui viene indicato che il controller BIG-IP richiede le autorizzazioni di amministratore per fornire le funzionalità complete.

Partizioni F5 BIG-IP

Devi creare una partizione amministrativa F5 BIG-IP per ogni cluster che intendi creare in anticipo. Inizialmente, devi creare almeno due partizioni: una per il cluster di amministrazione e una per il cluster utente. Consulta la documentazione di F5's Configurazione delle partizioni amministrative per controllare l'accesso degli utenti.

Non utilizzare una partizione amministrativa per scopi diversi da cluster associato.