Questa pagina descrive come creare un cluster di utenti utilizzando la console Google Cloud, l'interfaccia a Google Cloud CLI (gcloud CLI) o Terraform.
Che cos'è l'API GKE On-Prem?
L'API GKE On-Prem è un'API ospitata su Google Cloud che ti consente di gestire il ciclo di vita dei tuoi cluster on-premise utilizzando Terraform e le applicazioni Google Cloud standard. L'API GKE On-Prem viene eseguita nell'infrastruttura di Google Cloud. Terraform, la console e l'gcloud CLI sono client dell'API e la utilizzano per creare cluster nel tuo data center.
Per gestire il ciclo di vita dei cluster, l'API GKE On-Prem deve archiviare i metadati relativi allo stato del cluster in Google Cloud, utilizzando la regione Google Cloud specificata durante la creazione del cluster. Questi metadati consentono all'API di gestire il ciclo di vita del cluster e non includono dati specifici del carico di lavoro.
Quando crei un cluster utilizzando un client dell'API GKE On-Prem, specifichi un progetto Google Cloud. Dopo la creazione, il cluster viene automaticamente registrato nel parco risorse del progetto specificato. Questo progetto è denominato progetto host del parco risorse. Il progetto host del parco risorse non può essere modificato dopo la creazione del cluster.
Se preferisci, puoi creare un cluster utente creando un file di configurazione del cluster utente e utilizzando bmctl
, come descritto in Creazione di un cluster utente.
Se vuoi utilizzare Terraform, la console o gcloud CLI per gestire il ciclo di vita dei cluster creati utilizzando bmctl
, consulta Configurare un cluster utente da gestire tramite l'API GKE On-Prem.
Prima di iniziare
Questa sezione descrive i requisiti per creare un cluster utente utilizzando i client dell'API GKE On-Prem.
Concedi autorizzazioni IAM
Se non sei un proprietario del progetto, devi disporre del ruolo roles/gkeonprem.admin.
Se vuoi accedere alle pagine di Google Kubernetes Engine nella console, devi disporre anche dei seguenti ruoli:
Dopo aver creato il cluster, se non sei un proprietario del progetto e vuoi utilizzare il gateway di connessione per connetterti al cluster di utenti dalla riga di comando, sono necessari i seguenti ruoli:
roles/gkehub.gatewayAdmin: Questo ruolo ti consente di accedere all'API Connect Gateway. Se hai bisogno solo di accesso di sola lettura al cluster,
roles/gkehub.gatewayReader
è sufficiente.roles/gkehub.viewer: questo ruolo consente di recuperare le credenziali del cluster.
Per informazioni sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.
API di Google obbligatorie
Assicurati che tutte le API di Google richieste siano abilitate nel progetto host del parco.
Se utilizzerai gcloud CLI per creare il cluster, devi attivare l'API GKE On-Prem. Se utilizzi la console per creare il cluster, l'API GKE On-Prem viene abilitata automaticamente.
gcloud services enable --project FLEET_HOST_PROJECT_ID \ gkeonprem.googleapis.com
Prerequisiti del cluster di amministrazione
Prima di poter creare un cluster utente, devi avere un cluster di amministrazione funzionante. Il cluster amministrativo deve:
Avere accesso al server API Kubernetes nel cluster utente dopo la sua creazione.
Avere connettività di rete a tutti i nodi del cluster utente dopo la sua creazione.
Deve essere registrato in un parco risorse. L'ID progetto configurato nel campo
gkeConnect.projectID
del cluster di amministrazione, denominato progetto di hosting del parco risorse, deve essere lo stesso progetto in cui verrà creato il cluster utente.
Prerequisiti delle macchine dei nodi del cluster
Esamina Prerequisiti delle macchine dei nodi del cluster per assicurarti che le macchine su cui verrà eseguito il cluster utente soddisfino i prerequisiti.
Accesso da riga di comando
Dopo aver creato il cluster, se vuoi utilizzare il gateway di connessione per eseguire kubectl
sul cluster di utenti su computer diversi dalla stazione di lavoro di amministrazione, installa i seguenti strumenti a riga di comando sul computer che intendi utilizzare.
- La versione più recente della gcloud CLI.
kubectl
per eseguire comandi sui cluster Kubernetes. Se devi installarekubectl
, segui queste istruzioni.
Creazione di un cluster utente
Puoi utilizzare Terraform, la console Google Cloud o Google Cloud CLI (gcloud CLI) per creare un cluster gestito dall'API GKE On-Prem. Se è la prima volta che installi Google Distributed Cloud, potresti trovare la console lo strumento più semplice da utilizzare.
Una volta acquisita familiarità con le informazioni da fornire per creare i cluster, potresti trovare più comodo utilizzare Terraform o l'interfaccia alla gcloud CLI, in particolare se crei più di un cluster. Terraform è uno strumento Infrastructure as Code standard di settore. Se la tua organizzazione utilizza già Terraform, probabilmente vorrai utilizzarlo per creare i cluster e gestire il loro ciclo di vita.
Con l'interfaccia a riga di comando gcloud, puoi salvare il comando con i relativi argomenti in un file di testo e apportare le modifiche necessarie per creare altri cluster. Se utilizzi uno strumento CI/CD, come Cloud Build, puoi utilizzare i comandi gcloud
per creare un cluster e un pool di nodi e specificare il flag --impersonate-service-account
per automatizzare la creazione.
Console
La maggior parte delle impostazioni nella console corrisponde ai campi del file di configurazione del cluster.
Nella console, vai alla pagina Crea un cluster bare metal.
Seleziona il progetto Google Cloud in cui vuoi creare il cluster. Il progetto selezionato viene utilizzato anche come progetto host del parco risorse. Deve essere lo stesso progetto a cui è registrato il cluster di amministrazione. Dopo la creazione, il cluster degli utenti viene registrato automaticamente nel parco risorse del progetto selezionato.
Fai clic su Avanti per iniziare a configurare il cluster.
Le sezioni seguenti illustrano la procedura di configurazione del cluster di utenti.
Impostazioni di base del cluster
Inserisci le informazioni di base sul cluster.
- Inserisci un nome per il cluster di utenti.
In Cluster di amministrazione, seleziona il cluster di amministrazione dall'elenco.
Nel campo Posizione API Google Cloud, seleziona la regione Google Cloud dall'elenco. Questa impostazione specifica la regione in cui vengono eseguite le seguenti API e i seguenti servizi:
- API GKE On-Prem (
gkeonprem.googleapis.com
) - Servizio per il parco risorse (
gkehub.googleapis.com
) - Servizio di connessione (
gkeconnect.googleapis.com
)
Questa impostazione controlla anche la regione in cui vengono archiviati i seguenti elementi:
- I metadati del cluster utente di cui l'API GKE On-Prem ha bisogno per gestire il ciclo di vita del cluster
- I dati di Cloud Logging e Cloud Monitoring dei componenti di sistema
- L'audit log amministrativo creato da Cloud Audit Logs
Il nome, il progetto e la località del cluster identificano in modo univoco il cluster in Google Cloud.
- API GKE On-Prem (
Seleziona la versione per il cluster di utenti. I cluster utente devono avere la stessa versione secondaria del cluster di amministrazione o una versione secondaria inferiore.
In qualità di creatore del cluster, ti vengono concessi i privilegi di amministratore del cluster. Se vuoi, inserisci l'indirizzo email di un altro utente che gestirà il cluster nel campo Utente amministratore.
Quando viene creato il cluster, l'API GKE On-Prem applica al cluster i criteri di controllo dell'accesso dell'accesso basato sui ruoli (RBAC) di Kubernetes per concedere a te e agli altri utenti amministratore il ruolo
clusterrole/cluster-admin
di Kubernetes, che fornisce l'accesso completo a tutte le risorse del cluster in tutti gli spazi dei nomi.Nella sezione Configurazione del nodo, specifica quanto segue:
Numero massimo di pod per nodo: inserisci il numero massimo di pod che possono essere eseguiti su un singolo nodo. I valori consentiti sono compresi tra
32
e250
, inclusi. Kubernetes assegna un blocco CIDR (Classless Inter-Domain Routing) a ogni nodo in modo che ogni pod possa avere un indirizzo IP univoco. Le dimensioni del blocco CIDR corrispondono al numero massimo di pod per nodo. Per ulteriori informazioni sull'impostazione del numero massimo di pod per nodo, consulta Networking dei pod.Runtime del container: containerd è l'unico runtime del container disponibile per il cluster.
Fai clic su Avanti per andare alla sezione Networking.
Networking
In questa sezione specifichi gli indirizzi IP dei nodi, dei pod e dei servizi del tuo cluster. Se utilizzi il bilanciamento del carico in bundle con MetalLB, devi configurare anche questo.
Nella sezione dei nodi Control plane, inserisci l'indirizzo IPv4 di ciascun nodo del piano di controllo. I nodi del piano di controllo eseguono il carico di lavoro del sistema. In genere, si tratta di una singola macchina se si utilizza un deployment minimo o di tre macchine se si utilizza un deployment ad alta disponibilità (HA). Specifica un numero dispari di nodi per avere un quorum di maggioranza per l'alta disponibilità. Questo campo può essere modificato ogni volta che aggiorni o esegui l'upgrade di un cluster.
Fai clic su + Aggiungi indirizzo IP, se necessario, per inserire altri indirizzi IP.
Nella sezione Bilanciatore del carico, seleziona il bilanciatore del carico dall'elenco Modalità da configurare per il cluster. Per ulteriori informazioni, consulta la Panoramica dei bilanciatori del carico.
Abbinato a MetalLB
Configura il bilanciamento del carico con il bilanciatore del carico MetalLB in bundle. Con questa opzione, Google Distributed Cloud esegue il deployment di bilanciatori del carico di livello 4 che funzionano su un pool dedicato di nodi worker o sugli stessi nodi del piano di controllo.
Nella sezione Node pool del bilanciatore del carico, seleziona una delle seguenti opzioni:
Utilizza i nodi del control plane: scegli questa opzione per eseguire i bilanciatori del carico sugli stessi nodi del control plane.
Crea node pool del bilanciatore del carico: scegli questa opzione avanzata se devi eseguire i bilanciatori del carico su un pool dedicato di nodi worker. Tutti i nodi del pool di nodi del bilanciatore del carico devono trovarsi nella stessa subnet di livello 2 degli IP virtuali (VIP) del bilanciatore del carico che configuri nella sezione Pool di indirizzi del bilanciatore del carico.
Nel campo IP del pool di nodi del bilanciatore del carico 1, inserisci un indirizzo IPv4 per un nodo nel pool di nodi del bilanciatore del carico.
Fai clic su + Aggiungi indirizzo IP, se necessario, per inserire altri indirizzi IP.
Nella sezione Pool di indirizzi del bilanciatore del carico, aggiungi uno o più pool di indirizzi tra cui il controller MetalLB può scegliere e assegnali ai servizi di tipo
LoadBalancer
. Il VIP in entrata, che specifichi nella sezione IP virtuali, deve trovarsi in uno di questi pool.Inserisci un nome per il pool di indirizzi.
Inserisci un intervallo di indirizzi IP in notazione CIDR (ad esempio 192.0.2.0/26) o in notazione di intervallo (ad esempio 192.0.2.64-192.0.2.72). Per specificare un singolo indirizzo IP in un pool, utilizza /32 nella notazione CIDR (ad esempio 192.0.2.1/32).
Se l'IP virtuale di ingresso non è nell'intervallo di indirizzi, seleziona + Aggiungi intervallo di indirizzi IP e inserisci un altro intervallo di indirizzi che includa l'IP virtuale di ingresso.
Gli indirizzi IP in ogni pool non possono sovrapporsi e devono trovarsi nella stessa subnet dei nodi del cluster.
In Assegnazione degli indirizzi IP, seleziona una delle seguenti opzioni:
- Automatica: scegli questa opzione se vuoi che il controller MetalLB assegni automaticamente gli indirizzi IP del pool di indirizzi ai servizi di tipo
LoadBalancer
. - Manuale: scegli questa opzione se intendi utilizzare gli indirizzi del pool per specificare manualmente gli indirizzi per i servizi di tipo
LoadBalancer
.
- Automatica: scegli questa opzione se vuoi che il controller MetalLB assegni automaticamente gli indirizzi IP del pool di indirizzi ai servizi di tipo
Fai clic su Evita indirizzi IP che presentano bug se non vuoi che il controller MetalLB utilizzi indirizzi del pool che terminano con .0 o .255. In questo modo si evita il problema dei dispositivi consumer con bug che eliminano erroneamente il traffico inviato a questi indirizzi IP speciali.
Al termine, fai clic su Fine.
Se necessario, fai clic su Aggiungi pool di indirizzi.
Bilanciatore del carico manuale
Con il bilanciamento del carico manuale, puoi configurare le tue soluzioni di bilanciamento del carico per il traffico del piano di controllo e del piano dati. Devi configurare il VIP del piano di controllo sul bilanciatore del carico esterno prima di creare un cluster. Il bilanciatore del carico del piano di controllo esterno può essere utilizzato anche per il traffico del piano dati oppure puoi configurare un bilanciatore del carico separato per il piano dati. Per ulteriori informazioni, consulta Configurare il bilanciamento del carico manuale.
Nella sezione Indirizzi IP virtuali, inserisci quanto segue:
VIP del piano di controllo: l'indirizzo IP di destinazione da utilizzare per il traffico inviato al server API Kubernetes del cluster utente. Il VIP del piano di controllo deve trovarsi nella stessa subnet dei nodi del bilanciatore del carico e non deve trovarsi in nessuno degli intervalli di indirizzi utilizzati per i pool di indirizzi del bilanciatore del carico.
Porta: la porta di destinazione utilizzata per il traffico inviato al server API Kubernetes. Il valore predefinito è 443.
VIP in entrata: l'indirizzo IP da configurare sul bilanciatore del carico per il proxy in entrata. Inserisci un indirizzo da uno dei pool di indirizzi del bilanciatore del carico.
Nella sezione CIDR per servizi e pod, specifica gli intervalli di indirizzi IP dei pod e dei servizi Kubernetes nella notazione CIDR. Non devono sovrapporsi tra loro né con indirizzi esterni al cluster che vuoi raggiungere dall'interno del cluster. Ti consigliamo di utilizzare gli intervalli di indirizzi IP privati definiti da RFC 1918. La console fornisce i seguenti intervalli di indirizzi predefiniti, ma puoi modificarli:
CIDR del servizio:
10.96.0.0/20
se non accetti il valore predefinito, inserisci un intervallo CIDR compreso tra /24 e /12, dove /12 fornisce il maggior numero di indirizzi IP.CIDR del pod:
192.168.0.0/16
se non accetti il valore predefinito, inserisci un intervallo CIDR compreso tra /18 e /8, dove /8 fornisce il maggior numero di indirizzi IP.
Nella sezione Attributi avanzati, specifica facoltativamente quanto segue:
URL del proxy: l'indirizzo HTTP del server proxy. Includi il numero di porta anche se corrisponde a quello predefinito dello schema, ad esempio:
http://my-proxy.example.local:80
URL: un elenco di indirizzi IP, intervalli di indirizzi IP, nomi host e nomi di dominio separati da virgole che non devono passare attraverso il server proxy. Quando Google Distributed Cloud invia una richiesta a uno di questi indirizzi, host o domini, la richiesta viene inviata direttamente.
Fai clic su Avanti.
Archiviazione
La versione solo software di Google Distributed Cloud fornisce interfacce di archiviazione a blocchi e di file. Hanno opzioni predefinite, ma puoi personalizzare le configurazioni. Per ulteriori informazioni, consulta Configurare lo spazio di archiviazione locale.
Facoltativamente, puoi configurare quanto segue:
Montaggi dei nodi del provisioner del volume locale: specifica la configurazione per i
PersistentVolumes
(PV) locali supportati da dischi montati. Devi formattare e montare questi dischi. Puoi farlo prima o dopo la creazione del cluster.Condivisione del provisioner del volume locale: specifica la configurazione per i
PersistentVolumes
locali supportati da sottodirectory in un file system condiviso. Queste sottodirectory vengono create automaticamente durante la creazione del cluster.
Fai clic su Avanti.
Funzionalità
Per aiutarti a monitorare, risolvere i problemi e gestire il cluster, i seguenti elementi vengono attivati automaticamente e non possono essere disattivati:
- Cloud Logging dei servizi di sistema
- Cloud Monitoring dei servizi di sistema
- Il log di controllo delle attività di amministrazione
Creare un pool di nodi nella console
Il cluster deve avere almeno un pool di nodi per i nodi worker. Un pool di nodi è un modello per i gruppi di nodi worker creati in questo cluster.
Nella console, configura almeno un pool di nodi (o accetta i valori predefiniti) e poi crea il cluster. Puoi aggiungere altri pool di nodi dopo la creazione del cluster. Con gcloud CLI, crei prima il cluster e poi aggiungi uno o più pool di nodi al cluster appena creato.
Fai clic su pool predefinito nella barra di navigazione a sinistra.
Nella sezione Valori predefiniti del pool di nodi, inserisci il nome del pool di nodi o accetta "default-pool" come nome.
Nella sezione Nodi worker, inserisci gli indirizzi IP delle macchine su cui eseguire il cluster.
Nella sezione Metadati del node pool (facoltativo), se vuoi aggiungere etichette e contaminazioni di Kubernetes, procedi nel seguente modo:
- Fai clic su + Aggiungi etichette Kubernetes. Inserisci la chiave e il valore per l'etichetta. Ripeti queste operazioni in base alle necessità.
- Fai clic su + Aggiungi contaminazione. Inserisci Chiave, Valore e Effetto per l'alterazione. Ripeti queste operazioni in base alle necessità.
Fai clic su Verifica e completa per creare il cluster di utenti. La creazione del cluster utente richiede almeno 15 minuti. La console mostra i messaggi di stato durante la verifica delle impostazioni e la creazione del cluster nel tuo data center.
Se si verifica un problema di configurazione, la console mostra un messaggio di errore che dovrebbe essere sufficientemente chiaro per consentirti di risolvere il problema di configurazione e riprovare a creare il cluster.
Interfaccia a riga di comando gcloud
Per creare un cluster utente, utilizza il seguente comando:
gcloud container bare-metal clusters create
Dopo aver creato il cluster, devi creare almeno un pool di nodi utilizzando il seguente comando:
gcloud container bare-metal node-pools create
La maggior parte dei flag per la creazione del cluster e del pool di nodi corrisponde ai campi del file di configurazione del cluster utente. Per aiutarti a iniziare, puoi testare il comando completo nella sezione Esempi. Per informazioni sui flag, consulta le sezioni che seguono gli esempi o consulta la documentazione di riferimento dell'interfaccia a riga di comando gcloud.
Prima di iniziare
La versione selezionata durante la creazione di un cluster utente deve essere supportata dal cluster di amministrazione. Inoltre, le ultime versioni secondarie o patch non sono disponibili nell'API GKE On-Prem fino a 7-14 giorni dopo il rilascio. Puoi eseguire un comando gcloud
per ottenere un elenco delle versioni del cluster supportate che puoi installare.
Assicurati di aggiornare i componenti:
gcloud components update
Ottieni il nome e la posizione dell'appartenenza al parco risorse del tuo cluster di amministrazione:
gcloud container fleet memberships list \ --project=FLEET_HOST_PROJECT_ID
Sostituisci
FLEET_HOST_PROJECT_ID
con l'ID del progetto a cui è registrato il cluster di amministrazione.L'output è simile al seguente:
NAME EXTERNAL_ID LOCATION admin-cluster-1 bb7803b4-8438-4b22-859f-4559b4b29072 global admin-cluster-2 ee16ee2b-6ec0-49fc-9413-3c89cbc70854 global admin-cluster-3 fc2b7ef5-39ff-4b63-b919-04c5adc67be4 us-west1
La località specifica dove vengono eseguiti i servizi Fleet e Connect. I cluster di amministrazione creati prima della versione 1.28 sono gestiti dai servizi globali Fleet e Connect. In 1.28 e versioni successive, puoi specificare
global
o una regione Google Cloud quando crei il cluster di amministrazione. Specifica la regione nel flag--admin-cluster-membership-location
nei comandi di esempio che seguono.Visualizza un elenco delle versioni disponibili da installare nel cluster utente:
gcloud container bare-metal clusters query-version-config \ --admin-cluster-membership=ADMIN_CLUSTER_NAME \ --admin-cluster-membership-project=FLEET_HOST_PROJECT_ID \ --admin-cluster-membership-location=ADMIN_CLUSTER_REGION \ --location=REGION
Sostituisci quanto segue:
ADMIN_CLUSTER_NAME
: il nome del cluster di amministrazione.FLEET_HOST_PROJECT_ID
: l'ID del progetto a cui è registrato il cluster di amministrazione.ADMIN_CLUSTER_REGION
: la regione di appartenenza del fleet del cluster di amministrazione. Può essere globale o una regione Google Cloud. Utilizza la posizione del cluster di amministrazione dall'output digcloud container fleet memberships list
.REGION
: la regione Google Cloud che utilizzerai per creare il cluster. Si tratta della regione in cui vengono eseguiti l'API GKE On-Prem e i servizi Fleet e Connect. Specificaus-west1
o un'altra regione supportata.
L'output del comando è simile al seguente:
versions: - version: 1.16.2 - version: 1.16.1 - version: 1.16.0 - version: 1.15.7 - version: 1.15.6 - version: 1.15.5
Ti consigliamo di utilizzare la versione più recente supportata per ricevere le correzioni e i miglioramenti più recenti.
Esempi
Questa sezione fornisce un esempio di comando che crea un cluster utilizzando il bilanciatore del carico MetalLB e un esempio che utilizza un bilanciatore del carico manuale. Le informazioni specificate variano a seconda del tipo di bilanciatore del carico che utilizzerai. Per ulteriori informazioni, consulta la Panoramica dei bilanciatori del carico.
Gli esempi creano il cluster senza node pool. Dopo che il cluster è in esecuzione, devi aggiungere un pool di nodi prima di eseguire il deployment dei workload.
MetalLB
Questo esempio mostra come creare un cluster di utenti con il bilanciatore del carico MetalLB incluso.
gcloud container bare-metal clusters create USER_CLUSTER_NAME \ --project=FLEET_HOST_PROJECT_ID \ --admin-cluster-membership=ADMIN_CLUSTER_NAME \ --admin-cluster-membership-project=FLEET_HOST_PROJECT_ID \ --admin-cluster-membership-location=ADMIN_CLUSTER_REGION \ --location=REGION \ --version=VERSION \ --admin-users=YOUR_EMAIL_ADDRESS \ --admin-users=ANOTHER_EMAIL_ADDRESS \ --metal-lb-address-pools='pool=NAME,avoid-buggy-ips=True|False,manual-assign=True|False,addresses=IP_ADDRESS_RANGE_1;IP_ADDRESS_RANGE_2;...' \ --control-plane-node-configs='node-ip=CP_IP_ADDRESS_1,labels=CP_KEY_1.1=CP_VALUE_1.1;CP_KEY_1.2=CP_VALUE_1.2;...' \ --control-plane-vip=CONTROL_PLANE_VIP \ --control-plane-load-balancer-port=CONTROL_PLANE_LB_PORT \ --ingress-vip=INGRESS_VIP \ --island-mode-service-address-cidr-blocks=SERVICE_CIDR_BLOCK \ --island-mode-pod-address-cidr-blocks=POD_CIDR_BLOCK \ --lvp-share-path=/mnt/localpv-share \ --lvp-share-storage-class=local-shared \ --lvp-node-mounts-config-path=/mnt/localpv-disk \ --lvp-node-mounts-config-storage-class=local-disks
Sostituisci quanto segue:
-
USER_CLUSTER_NAME
: un nome a tua scelta per il cluster di utenti. Il nome non può essere modificato dopo la creazione del cluster. Il nome deve avere le seguenti caratteristiche:- Deve contenere al massimo 40 caratteri.
- Deve contenere solo caratteri alfanumerici minuscoli o un trattino (
-
). - Deve iniziare con un carattere alfabetico
- Deve terminare con un carattere alfanumerico
-
FLEET_HOST_PROJECT_ID
: l'ID del progetto in cui vuoi creare il cluster. Il progetto specificato viene utilizzato anche come progetto host del parco risorse. Deve essere lo stesso progetto a cui è registrato il cluster di amministrazione. Dopo la creazione, il cluster utente viene registrato automaticamente nel parco risorse del progetto selezionato. Il progetto host del parco risorse non può essere modificato dopo la creazione del cluster. -
ADMIN_CLUSTER_NAME
: il nome del cluster di amministrazione che gestisce il cluster utente. Nel flag--admin-cluster-membership
puoi utilizzare il nome del cluster completamente specificato, che ha il seguente formato:projects/FLEET_HOST_PROJECT_ID/locations/ADMIN_CLUSTER_REGION/memberships/ADMIN_CLUSTER_NAME
In alternativa, puoi impostare
--admin-cluster-membership
sul nome del cluster di amministrazione, come nel comando di esempio. Quando utilizzi solo il nome del cluster di amministrazione, imposta l'ID progetto del cluster di amministrazione con--admin-cluster-membership-project
e la località con--admin-cluster-membership-location
. La località del cluster amministrativo èglobal
o una regione Google Cloud. Se devi trovare la regione, eseguigcloud container fleet memberships list
. -
REGION
: la regione Google Cloud in cui vengono eseguiti l'API GKE On-Prem (gkeonprem.googleapis.com
), il servizio Fleet (gkehub.googleapis.com
) e il servizio Connect (gkeconnect.googleapis.com
). Specificaus-west1
o un'altra regione supportata. La regione non può essere modificata dopo la creazione del cluster. Questa impostazione specifica la regione in cui vengono archiviati i seguenti elementi:- I metadati del cluster utente di cui l'API GKE On-Prem ha bisogno per gestire il ciclo di vita del cluster
- I dati di Cloud Logging e Cloud Monitoring dei componenti di sistema
- L'audit log amministrativo creato da Cloud Audit Logs
Il nome, il progetto e la posizione del cluster identificano in modo univoco il cluster in Google Cloud.
-
VERSION
: la versione di Google Distributed Cloud per il tuo cluster di utenti. -
YOUR_EMAIL_ADDRESS
eANOTHER_EMAIL_ADDRESS
: se non includi il flag--admin-users
, in qualità di creatore del cluster, per impostazione predefinita ti vengono concessi i privilegi di amministratore del cluster. Tuttavia, se includi--admin-users
per designare un altro utente come amministratore, sostituisci il valore predefinito e devi includere sia il tuo indirizzo email sia l'indirizzo email dell'altro amministratore. Ad esempio, per aggiungere due amministratori:--admin-users=sara@example.com \ --admin-users=amal@example.com
Quando viene creato il cluster, l'API GKE On-Prem applica al cluster i criteri di controllo dell'accesso dell'accesso basato sui ruoli (RBAC) di Kubernetes per concedere a te e agli altri utenti amministratore il ruolo
clusterrole/cluster-admin
di Kubernetes, che fornisce l'accesso completo a tutte le risorse del cluster in tutti gli spazi dei nomi.
Pool di indirizzi MetalLB
--metal-lb-address-pools
: specifica la configurazione per i pool di indirizzi da utilizzare dal bilanciatore del carico MetalLB. Il valore del flag ha il seguente formato:
'pool=NAME,avoid-buggy-ips=True|False,manual-assign=True|False,addresses=IP_ADDRESS_RANGE_1;IP_ADDRESS_RANGE_2;...' \
Il valore ha segmenti che iniziano con le parole chiave
pool
, avoid-buggy-ip
, manual-assign
e
addresses
. Separa ogni segmento con una virgola.
pool
: un nome scelto da te per il pool.avoid-buggy-ips
: se imposti questo valore suTrue
, il controller MetalLB non assegna indirizzi IP che terminano con .0 o .255 ai servizi. In questo modo si evita il problema dei dispositivi consumer con bug che eliminano erroneamente il traffico inviato a questi indirizzi IP speciali. Se non specificato, il valore predefinito èFalse
.manual-assign
: se non vuoi che il controller MetalLB assegni automaticamente gli indirizzi IP di questo pool ai servizi, imposta questo valore suTrue
. In seguito, uno sviluppatore può creare un servizio di tipoLoadBalancer
e specificare manualmente uno degli indirizzi del pool. Se non specificato,manual-assign
viene impostato suFalse
.Nell'elenco di
addresses
: ogni indirizzo deve essere un intervallo in formato CIDR o con trattini. Per specificare un singolo indirizzo IP in un pool (ad esempio per il VIP di ingresso), utilizza /32 in notazione CIDR (ad es. 192.0.2.1/32).
Tieni presente le seguenti regole di sintassi:
- Racchiudi l'intero valore tra virgolette singole.
- Gli spazi vuoti non sono consentiti.
- Separa ogni intervallo di indirizzi IP con un punto e virgola.
Puoi specificare più di un'istanza del flag, come mostrato nel seguente esempio:
--metal-lb-address-pools='pool=pool1,avoid-buggy-ips=False,manual-assign=True,addresses=192.0.2.0/26;192.0.2.64-192.0.2.72' --metal-lb-address-pools='pool=pool2,avoid-buggy-ips=True,manual-assign=True,addresses=10.251.133.0/24;10.251.134.80/32'
Nodi MetalLB
(Facoltativo)
--metal-lb-load-balancer-node-configs
: per impostazione predefinita, il bilanciatore del carico viene eseguito sugli stessi nodi del piano di controllo. Se devi eseguire il bilanciatore del carico su un pool dedicato di nodi worker, specifica questo flag per ogni nodo. Tutti i nodi del pool di nodi del bilanciatore del carico devono trovarsi nella stessa subnet di livello 2 degli IP virtuali (VIP) del bilanciatore del carico.Il valore del flag ha il seguente formato:
'node-ip=LB_IP_ADDRESS_1,labels=LB_KEY_1.1=LB_VALUE_1.1;LB_KEY_1.2=LB_VALUE_1.2;...' \
Il valore contiene segmenti che iniziano con le parole chiave
node-ip
elabels
. Separa ogni segmento con una virgola.node-ip
: l'indirizzo IP di un nodo nel pool di nodi del bilanciatore del carico. Puoi specificare un solonode-ip
per flag. Se devi specificare più di un nodo, includi di nuovo il flag per ogni nodo.labels
: una o più coppie chiave=valore associate al nodo.
Tieni presente le seguenti regole di sintassi:
- Racchiudi l'intero valore tra virgolette singole.
- Gli spazi vuoti non sono consentiti.
- Separa ogni coppia chiave=valore nel segmento
labels
con un punto e virgola.
Se specifichi
--metal-lb-load-balancer-node-configs
, puoi optionally includere i seguenti flag:--metal-lb-load-balancer-node-labels
: utilizza questo flag per aggiungere etichette a tutti i nodi del pool di nodi del bilanciatore del carico. Separa l'elenco di coppie chiave=valore con una virgola.--metal-lb-load-balancer-node-labels=KEY_1=VALUE_1,KEY_2=VALUE_2
--metal-lb-load-balancer-node-taints
: utilizza questo flag per aggiungere incompatibilità a tutti i nodi del pool di nodi del bilanciatore del carico. Ogni contaminazione è una coppia chiave=valore associata a un effetto, che deve essere uno dei seguenti:PreferNoSchedule
,NoSchedule
oNoExecute
.--metal-lb-load-balancer-node-taints=KEY_1=VALUE_1:EFFECT_1,KEY_2=VALUE_2:EFFECT_2
L'esempio seguente aggiunge tre nodi al pool di nodi del bilanciatore del carico. Tutti i nodi sono etichettati con
lb-pool-key=lb-pool-value
e hanno l'elemento danosodedicated=experimental:PreferNoSchedule
.--metal-lb-load-balancer-node-configs='node-ip=192.0.2.1' \ --metal-lb-load-balancer-node-configs='node-ip=192.0.2.2,labels=key2.1=value2.1' \ --metal-lb-load-balancer-node-configs='node-ip=192.0.2.3,labels=key3.1=value3.1;key3.2=value3.2' \ --metal-lb-load-balancer-node-labels=lb-pool-key=lb-pool-value \ --metal-lb-load-balancer-node-taints=dedicated=experimental:PreferNoSchedule \
Nodi del control plane
-
--control-plane-node-configs
: L'indirizzo IPv4 di un nodo del control plane. I nodi del piano di controllo eseguono il carico di lavoro del sistema. Specifica questo flag per ogni nodo del piano di controllo. In genere, hai una singola macchina se utilizzi un deployment minimo o tre macchine se utilizzi un deployment ad alta disponibilità (HA). Specifica un numero dispari di nodi per avere un quorum di maggioranza per l'alta disponibilità. Puoi modificare questi indirizzi ogni volta che aggiorni o esegui l'upgrade di un cluster.Il valore del flag ha il seguente formato:
'node-ip=CP_IP_ADDRESS_1,labels=CP_KEY_1.1=CP_VALUE_1.1;CP_KEY_1.2=CP_VALUE_1.2;...' \
Il valore contiene segmenti che iniziano con le parole chiave
node-ip
elabels
. Separa ogni segmento con una virgola. -
node-ip
: l'indirizzo IP di un nodo del control plane. Puoi specificare un solonode-ip
per flag. Se devi specificare più di un nodo, includi di nuovo il flag per ogni nodo. -
labels
: una o più coppie chiave=valore associate al nodo.Tieni presente le seguenti regole di sintassi:
- Racchiudi l'intero valore tra virgolette singole.
- Gli spazi vuoti non sono consentiti.
- Separa ogni coppia chiave=valore nel segmento
labels
con un punto e virgola.
Se vuoi, includi i seguenti flag:
-
--control-plane-node-labels
: utilizza questo flag per aggiungere etichette a tutti i nodi del piano di controllo. Separa l'elenco di coppie chiave=valore con una virgola.--control-plane-node-labels=KEY_1=VALUE_1,KEY_2=VALUE_2
-
--control-plane-node-taints
: utilizza questo flag per aggiungere incompatibilità a tutti i nodi del piano di controllo. Ogni contaminazione è una coppia chiave=valore associata a un effetto, che deve essere uno dei seguenti:PreferNoSchedule
,NoSchedule
oNoExecute
.L'esempio seguente aggiunge tre nodi ai nodi del control plane. Tutti i nodi sono etichettati con
cp-node-pool-key=cp-node-pool-value
e hanno l'elemento di contaminazionededicated=experimental:PreferNoSchedule
.--control-plane-node-configs='node-ip=192.0.2.1' \ --control-plane-node-configs='node-ip=192.0.2.2,labels=key2.1=value2.1' \ --control-planer-node-configs='node-ip=192.0.2.3,labels=key3.1=value3.1;key3.2=value3.2' \ --control-plane-node-labels=cp-node-pool-key=cp-node-pool-value \ --control-plane-node-taints=dedicated=experimental:PreferNoSchedule \
IP virtuali
-
CONTROL_PLANE_VIP
: l'indirizzo IP che hai scelto di configurare sul bilanciatore del carico per il server API Kubernetes del cluster utente.Esempio:
--control-plane-vip=203.0.113.3
-
CONTROL_PLANE_LB_PORT
: la porta su cui il bilanciatore del carico serve il server API Kubernetes.Esempio:
-control-plane-load-balancer-port=443
-
INGRESS_VIP
: l'indirizzo IP che hai scelto di configurare sul bilanciatore del carico per il proxy in entrata.Esempio:
--ingress-vip=10.251.134.80
L'indirizzo IP del VIP in entrata deve trovarsi in uno dei pool di indirizzi MetalLB.
CIDR servizi e pod
-
SERVICE_CIDR_BLOCK
: un intervallo di indirizzi IP in formato CIDR da utilizzare per i servizi nel cluster. L'intervallo CIDR deve essere compreso tra /24 e /12, dove /12 fornisce il maggior numero di indirizzi IP.Esempio:
--island-mode-service-address-cidr-blocks=10.96.0.0/20
-
POD_CIDR_BLOCK
: un intervallo di indirizzi IP in formato CIDR da utilizzare per i pod nel cluster. L'intervallo CIDR deve essere compreso tra /18 e /8, dove /8 fornisce il maggior numero di indirizzi IP.Esempio:
--island-mode-pod-address-cidr-blocks=192.168.0.0/16
Archiviazione
-
--lvp-share-path
: si tratta del percorso della macchina host in cui è possibile creare sottodirectory. Per ogni sottodirectory viene creato un volume permanente (PV) locale. -
--lvp-share-storage-class
: si tratta della classe StorageClass da utilizzare per creare i volumi permanenti. StorageClass viene creato durante la creazione del cluster. -
--lvp-node-mounts-config-path
: questo è il percorso della macchina host in cui è possibile rilevare i dischi montati. Per ogni montaggio viene creato un volume permanente locale (PV). -
--lvp-node-mounts-config-storage
: la classe di archiviazione con cui vengono creati i PV durante la creazione del cluster.
Per saperne di più sullo spazio di archiviazione, consulta Configurare lo spazio di archiviazione locale.
Manuale
Con il bilanciamento del carico manuale, puoi configurare le tue soluzioni di bilanciamento del carico per il traffico del piano di controllo e del piano dati. Devi configurare il VIP del piano di controllo sul bilanciatore del carico esterno prima di creare un cluster. Il bilanciatore del carico del piano di controllo esterno può essere utilizzato anche per il traffico del piano dati oppure puoi configurare un bilanciatore del carico separato per il piano dati. Per ulteriori informazioni, consulta Configurare il bilanciamento del carico manuale.
Assicurati di scorrere, se necessario, per compilare il segnaposto ADMIN_CLUSTER_NAME
per il flag --admin-cluster-membership
.
gcloud container bare-metal clusters create USER_CLUSTER_NAME \ --project=FLEET_HOST_PROJECT_ID \ --admin-cluster-membership=ADMIN_CLUSTER_NAME \ --admin-cluster-membership-project=FLEET_HOST_PROJECT_ID \ --admin-cluster-membership-location=ADMIN_CLUSTER_REGION \ --location=REGION \ --version=VERSION \ --admin-users=YOUR_EMAIL_ADDRESS \ --admin-users=ANOTHER_EMAIL_ADDRESS \ --enable-manual-lb \ --control-plane-node-configs='node-ip=CP_IP_ADDRESS_1,labels=CP_KEY_1.1=CP_VALUE_1.1;CP_KEY_1.2=CP_VALUE_1.2;...' \ --control-plane-vip=CONTROL_PLANE_VIP \ --control-plane-load-balancer-port=CONTROL_PLANE_LB_PORT \ --ingress-vip=INGRESS_VIP \ --island-mode-service-address-cidr-blocks=SERVICE_CIDR_BLOCK \ --island-mode-pod-address-cidr-blocks=POD_CIDR_BLOCK \ --lvp-share-path=/mnt/localpv-share \ --lvp-share-storage-class=local-shared \ --lvp-node-mounts-config-path=/mnt/localpv-disk \ --lvp-node-mounts-config-storage-class=local-disks
Sostituisci quanto segue:
-
USER_CLUSTER_NAME
: un nome a tua scelta per il cluster di utenti. Il nome non può essere modificato dopo la creazione del cluster. Il nome deve avere le seguenti caratteristiche:- Deve contenere al massimo 40 caratteri.
- Deve contenere solo caratteri alfanumerici minuscoli o un trattino (
-
). - Deve iniziare con un carattere alfabetico
- Deve terminare con un carattere alfanumerico
-
FLEET_HOST_PROJECT_ID
: l'ID del progetto in cui vuoi creare il cluster. Il progetto specificato viene utilizzato anche come progetto host del parco risorse. Deve essere lo stesso progetto a cui è registrato il cluster di amministrazione. Dopo la creazione, il cluster utente viene registrato automaticamente nel parco risorse del progetto selezionato. Il progetto host del parco risorse non può essere modificato dopo la creazione del cluster. -
ADMIN_CLUSTER_NAME
: il nome del cluster di amministrazione che gestisce il cluster utente. Nel flag--admin-cluster-membership
puoi utilizzare il nome del cluster completamente specificato, che ha il seguente formato:projects/FLEET_HOST_PROJECT_ID/locations/ADMIN_CLUSTER_REGION/memberships/ADMIN_CLUSTER_NAME
In alternativa, puoi impostare
--admin-cluster-membership
sul nome del cluster di amministrazione, come nel comando di esempio. Quando utilizzi solo il nome del cluster di amministrazione, imposta l'ID progetto del cluster di amministrazione con--admin-cluster-membership-project
e la località con--admin-cluster-membership-location
. La località del cluster amministrativo èglobal
o una regione Google Cloud. Se devi trovare la regione, eseguigcloud container fleet memberships list
. -
REGION
: la regione Google Cloud in cui vengono eseguiti l'API GKE On-Prem (gkeonprem.googleapis.com
), il servizio Fleet (gkehub.googleapis.com
) e il servizio Connect (gkeconnect.googleapis.com
). Specificaus-west1
o un'altra regione supportata. La regione non può essere modificata dopo la creazione del cluster. Questa impostazione specifica la regione in cui vengono archiviati i seguenti elementi:- I metadati del cluster utente di cui l'API GKE On-Prem ha bisogno per gestire il ciclo di vita del cluster
- I dati di Cloud Logging e Cloud Monitoring dei componenti di sistema
- L'audit log amministrativo creato da Cloud Audit Logs
Il nome, il progetto e la posizione del cluster identificano in modo univoco il cluster in Google Cloud.
-
VERSION
: la versione di Google Distributed Cloud per il tuo cluster di utenti. -
YOUR_EMAIL_ADDRESS
eANOTHER_EMAIL_ADDRESS
: se non includi il flag--admin-users
, in qualità di creatore del cluster, per impostazione predefinita ti vengono concessi i privilegi di amministratore del cluster. Tuttavia, se includi--admin-users
per designare un altro utente come amministratore, sostituisci il valore predefinito e devi includere sia il tuo indirizzo email sia l'indirizzo email dell'altro amministratore. Ad esempio, per aggiungere due amministratori:--admin-users=sara@example.com \ --admin-users=amal@example.com
Quando viene creato il cluster, l'API GKE On-Prem applica al cluster i criteri di controllo dell'accesso dell'accesso basato sui ruoli (RBAC) di Kubernetes per concedere a te e agli altri utenti amministratore il ruolo
clusterrole/cluster-admin
di Kubernetes, che fornisce l'accesso completo a tutte le risorse del cluster in tutti gli spazi dei nomi.
Nodi del control plane
-
--control-plane-node-configs
: L'indirizzo IPv4 di un nodo del control plane. I nodi del piano di controllo eseguono il carico di lavoro del sistema. Specifica questo flag per ogni nodo del piano di controllo. In genere, hai una singola macchina se utilizzi un deployment minimo o tre macchine se utilizzi un deployment ad alta disponibilità (HA). Specifica un numero dispari di nodi per avere un quorum di maggioranza per l'alta disponibilità. Puoi modificare questi indirizzi ogni volta che aggiorni o esegui l'upgrade di un cluster.Il valore del flag ha il seguente formato:
'node-ip=CP_IP_ADDRESS_1,labels=CP_KEY_1.1=CP_VALUE_1.1;CP_KEY_1.2=CP_VALUE_1.2;...' \
Il valore contiene segmenti che iniziano con le parole chiave
node-ip
elabels
. Separa ogni segmento con una virgola. -
node-ip
: l'indirizzo IP di un nodo del control plane. Puoi specificare un solonode-ip
per flag. Se devi specificare più di un nodo, includi di nuovo il flag per ogni nodo. -
labels
: una o più coppie chiave=valore associate al nodo.Tieni presente le seguenti regole di sintassi:
- Racchiudi l'intero valore tra virgolette singole.
- Gli spazi vuoti non sono consentiti.
- Separa ogni coppia chiave=valore nel segmento
labels
con un punto e virgola.
Se vuoi, includi i seguenti flag:
-
--control-plane-node-labels
: utilizza questo flag per aggiungere etichette a tutti i nodi del piano di controllo. Separa l'elenco di coppie chiave=valore con una virgola.--control-plane-node-labels=KEY_1=VALUE_1,KEY_2=VALUE_2
-
--control-plane-node-taints
: utilizza questo flag per aggiungere incompatibilità a tutti i nodi del piano di controllo. Ogni contaminazione è una coppia chiave=valore associata a un effetto, che deve essere uno dei seguenti:PreferNoSchedule
,NoSchedule
oNoExecute
.L'esempio seguente aggiunge tre nodi ai nodi del control plane. Tutti i nodi sono etichettati con
cp-node-pool-key=cp-node-pool-value
e hanno l'elemento di contaminazionededicated=experimental:PreferNoSchedule
.--control-plane-node-configs='node-ip=192.0.2.1' \ --control-plane-node-configs='node-ip=192.0.2.2,labels=key2.1=value2.1' \ --control-planer-node-configs='node-ip=192.0.2.3,labels=key3.1=value3.1;key3.2=value3.2' \ --control-plane-node-labels=cp-node-pool-key=cp-node-pool-value \ --control-plane-node-taints=dedicated=experimental:PreferNoSchedule \
IP virtuali
-
CONTROL_PLANE_VIP
: l'indirizzo IP che hai scelto di configurare sul bilanciatore del carico per il server API Kubernetes del cluster utente.Esempio:
--control-plane-vip=203.0.113.3
-
CONTROL_PLANE_LB_PORT
: la porta su cui il bilanciatore del carico serve il server API Kubernetes.Esempio:
-control-plane-load-balancer-port=443
-
INGRESS_VIP
: l'indirizzo IP che hai scelto di configurare sul bilanciatore del carico per il proxy in entrata.Esempio:
--ingress-vip=10.251.134.80
L'indirizzo IP del VIP in entrata deve trovarsi in uno dei pool di indirizzi MetalLB.
CIDR servizi e pod
-
SERVICE_CIDR_BLOCK
: un intervallo di indirizzi IP in formato CIDR da utilizzare per i servizi nel cluster. L'intervallo CIDR deve essere compreso tra /24 e /12, dove /12 fornisce il maggior numero di indirizzi IP.Esempio:
--island-mode-service-address-cidr-blocks=10.96.0.0/20
-
POD_CIDR_BLOCK
: un intervallo di indirizzi IP in formato CIDR da utilizzare per i pod nel cluster. L'intervallo CIDR deve essere compreso tra /18 e /8, dove /8 fornisce il maggior numero di indirizzi IP.Esempio:
--island-mode-pod-address-cidr-blocks=192.168.0.0/16
Archiviazione
-
--lvp-share-path
: si tratta del percorso della macchina host in cui è possibile creare sottodirectory. Per ogni sottodirectory viene creato un volume permanente (PV) locale. -
--lvp-share-storage-class
: si tratta della classe StorageClass da utilizzare per creare i volumi permanenti. StorageClass viene creato durante la creazione del cluster. -
--lvp-node-mounts-config-path
: questo è il percorso della macchina host in cui è possibile rilevare i dischi montati. Per ogni montaggio viene creato un volume permanente locale (PV). -
--lvp-node-mounts-config-storage
: la classe di archiviazione con cui vengono creati i PV durante la creazione del cluster.
Per saperne di più sullo spazio di archiviazione, consulta Configurare lo spazio di archiviazione locale.
Prima di eseguire il comando gcloud
per creare il cluster, ti consigliamo di includere --validate-only
per convalidare la configurazione specificata nei flag del comando gcloud
. Quando è tutto pronto per creare il cluster,rimuovi questo flag ed esegui il comando.
L'output del comando è simile al seguente:
Waiting for operation [projects/example-project-12345/locations/us-west1/operations/operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179] to complete.
Nell'output di esempio, la stringa operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179
è il OPERATION_ID
dell'operazione a lunga esecuzione. Puoi scoprire lo stato dell'operazione con il seguente comando:
gcloud container bare-metal operations describe OPERATION_ID \ --project=FLEET_HOST_PROJECT_ID \ --location=REGION
La creazione del cluster di utenti richiede almeno 15 minuti. Puoi visualizzare il cluster nella console Google Cloud nella pagina Cluster GKE.
Per un elenco completo dei flag e delle relative descrizioni, consulta la documentazione di riferimento dell'interfaccia a riga di comando gcloud.
Crea un node pool
Dopo aver creato il cluster, devi creare almeno un pool di nodi prima di eseguire il deployment dei carichi di lavoro. Un pool di nodi è un modello per i gruppi di nodi worker creati in questo cluster. Con gcloud CLI, crei prima il cluster e poi aggiungi uno o più pool di nodi al cluster appena creato.
gcloud container bare-metal node-pools create NODE_POOL_NAME \ --cluster=USER_CLUSTER_NAME \ --project=FLEET_HOST_PROJECT_ID \ --location=REGION \ --node-configs='node-ip=NP_IP_ADDRESS_1,labels=NP_KEY_1.1=NP_VALUE_1.1;NP_KEY_1.2=NP_VALUE_1.2;...'
Sostituisci quanto segue:
NODE_POOL_NAME
: un nome scelto da te per il node pool. Il nome deve:- Deve contenere al massimo 40 caratteri.
- Deve contenere solo caratteri alfanumerici minuscoli o un trattino (
-
). - Deve iniziare con un carattere alfabetico
- Deve terminare con un carattere alfanumerico
USER_CLUSTER_NAME
: il nome del cluster di utenti appena creato.FLEET_HOST_PROJECT_ID
: l'ID del progetto a cui è registrato il cluster.REGION
: la regione Google Cloud specificata al momento della creazione del cluster.--node-configs
: l'indirizzo IPv4 di una macchina del nodo di lavoro. Specifica questo flag per ogni nodo. Il valore del flag ha il seguente formato:'node-ip=NP_IP_ADDRESS_1,labels=NP_KEY_1.1=NP_VALUE_1.1;NP_KEY_1.2=NP_VALUE_1.2;...' \
Il valore contiene segmenti che iniziano con le parole chiave
node-ip
elabels
. Separa ogni segmento con una virgola.node-ip
: l'indirizzo IP di un nodo worker. Puoi specificare un solonode-ip
per flag. Aggiungi di nuovo questo flag per ogni nodo nel pool di nodi.labels
: una o più coppie chiave=valore associate al nodo.
Tieni presente le seguenti regole di sintassi:
- Racchiudi l'intero valore tra virgolette singole.
- Gli spazi vuoti non sono consentiti.
- Separa ogni coppia chiave=valore nel segmento
labels
con un punto e virgola.
Se vuoi, puoi specificare quanto segue:
--node-labels=KEY=VALUE,...
: un elenco separato da virgola di etichette Kubernetes (coppie chiave=valore) applicate a ogni nodo del pool.--node-taints=KEY=VALUE:EFFECT,...
Un elenco separato da virgole di contaminazioni Kubernetes applicate a ogni nodo del pool. Le incompatibilità sono coppie chiave=valore associate a un effetto. Le incompatibilità vengono utilizzate con le tolleranze per la pianificazione dei pod. Specifica uno tra i seguenti valori perEFFECT
:NoSchedule
,PreferNoSchedule
,NoExecute
.
L'esempio seguente crea un pool di nodi denominato default-pool
su
user-cluster-
e aggiunge due nodi al pool di nodi. Tutti
entrambi i nodi sono etichettati con node-pool-key=node-pool-value
e
hanno l'elemento di contaminazione dedicated=experimental:PreferNoSchedule
,
gcloud container bare-metal node-pools create default-pool \ --cluster=user-cluster-1 \ --project=example-project-12345 \ --location=us-west1 \ --node-configs='node-ip=10.200.0.10' \ --node-configs='node-ip=10.200.0.11,labels=key2.1=value2.1' \ --node-labels=node-pool-key=node-pool-value \ --node-taints=dedicated=experimental:PreferNoSchedule
Per saperne di più, consulta il riferimento all'interfaccia a riga di comando gcloud.
Terraform
Prima di iniziare
La versione di Google Distributed Cloud (solo software) on bare metal selezionata quando crei un cluster utente deve essere una versione supportata dal tuo cluster di amministrazione. Inoltre, le versioni secondarie o patch più recenti non sono disponibili nell'API GKE On-Prem fino a 7-14 giorni dopo il rilascio. Puoi eseguire un comando gcloud
per ottenere un elenco delle versioni supportate che puoi utilizzare per installare il cluster utente.
Assicurati di aggiornare i componenti:
gcloud components update
Ottieni il nome e la posizione dell'appartenenza al parco risorse del tuo cluster di amministrazione:
gcloud container fleet memberships list \ --project=FLEET_HOST_PROJECT_ID
Sostituisci
FLEET_HOST_PROJECT_ID
con l'ID del progetto a cui è registrato il cluster di amministrazione.L'output è simile al seguente:
NAME EXTERNAL_ID LOCATION admin-cluster-1 bb7803b4-8438-4b22-859f-4559b4b29072 global admin-cluster-2 ee16ee2b-6ec0-49fc-9413-3c89cbc70854 global admin-cluster-3 fc2b7ef5-39ff-4b63-b919-04c5adc67be4 us-west1
La località specifica dove vengono eseguiti i servizi Fleet e Connect. I cluster di amministrazione creati prima della versione 1.28 sono gestiti dai servizi globali Fleet e Connect. In 1.28 e versioni successive, puoi specificare
global
o una regione Google Cloud quando crei il cluster di amministrazione. Specifica la regione nel flag--admin-cluster-membership-location
nei comandi di esempio che seguono.Visualizza un elenco delle versioni disponibili da installare nel cluster utente:
gcloud container bare-metal clusters query-version-config \ --admin-cluster-membership=ADMIN_CLUSTER_NAME \ --admin-cluster-membership-project=FLEET_HOST_PROJECT_ID \ --admin-cluster-membership-location=ADMIN_CLUSTER_REGION \ --location=REGION
Sostituisci quanto segue:
ADMIN_CLUSTER_NAME
: il nome del cluster di amministrazione.FLEET_HOST_PROJECT_ID
: l'ID del progetto a cui è registrato il cluster di amministrazione.ADMIN_CLUSTER_REGION
: la regione di appartenenza del fleet del cluster di amministrazione. Può essere globale o una regione Google Cloud. Utilizza la posizione del cluster di amministrazione dall'output digcloud container fleet memberships list
.REGION
: la regione Google Cloud che utilizzerai per creare il cluster. Si tratta della regione in cui vengono eseguiti l'API GKE On-Prem e i servizi Fleet e Connect. Specificaus-west1
o un'altra regione supportata.
L'output del comando è simile al seguente:
versions: - version: 1.16.2 - version: 1.16.1 - version: 1.16.0 - version: 1.15.7 - version: 1.15.6 - version: 1.15.5
Ti consigliamo di utilizzare la versione più recente supportata per ricevere le correzioni e i miglioramenti più recenti.
Esempio
Puoi utilizzare il seguente esempio di configurazione di base per creare un cluster di utenti con il bilanciatore del carico MetalLB incluso. Per ulteriori informazioni, consulta la documentazione di riferimento di google_gkeonprem_bare_metal_cluster
.
Imposta le variabili in terraform.tfvars
L'esempio fornisce un file di variabili di esempio da passare a main.tf
, che mostra come configurare il bilanciatore del carico MetalLB incluso.
Clona il repository
anthos-samples
e vai alla directory dove si trova l'esempio Terraform:git clone https://github.com/GoogleCloudPlatform/anthos-samples cd anthos-samples/anthos-onprem-terraform/abm_user_cluster_metallb
Il sample fornisce un file di variabili di esempio da passare a
main.tf
.Crea una copia del file
terraform.tfvars.sample
:cp terraform.tfvars.sample terraform.tfvars
Modifica i valori dei parametri in
terraform.tfvars
e salva il file.L'elenco seguente descrive le variabili:
project_id
: l'ID del progetto in cui vuoi creare il cluster. Il progetto specificato viene utilizzato anche come progetto host del parco risorse. Deve essere lo stesso progetto a cui è registrato il cluster di amministrazione. Dopo la creazione, il cluster utente viene registrato automaticamente nel parco risorse del progetto selezionato. Il progetto host del parco risorse non può essere modificato dopo la creazione del cluster.region
: la regione Google Cloud in cui vengono eseguite l'API GKE On-Prem (gkeonprem.googleapis.com
), il servizio Fleet (gkehub.googleapis.com
) e il servizio Connect (gkeconnect.googleapis.com
). Specificaus-west1
o un'altra regione supportata.
admin_cluster_name
: il nome del cluster di amministrazione che gestisce il cluster di utenti. L'esempio presuppone che il cluster di amministrazione utilizziglobal
come regione. Se hai un cluster di amministrazione regionale:Apri
main.tf
in un editor di testo.Cerca
admin_cluster_membership
, che ha il seguente aspetto:admin_cluster_membership = "projects/${var.project_id}/locations/global/memberships/${var.admin_cluster_name}"
Sostituisci
global
con la regione utilizzata dal cluster di amministrazione e salva il file.
bare_metal_version
: la versione di Google Distributed Cloud per il tuo cluster di utenti. Specifica la stessa versione del cluster di amministrazione o una versione non più di una versione secondaria inferiore al cluster di amministrazione.admin_user_emails
: un elenco di indirizzi email degli utenti a cui devono essere concessi i privilegi amministrativi sul cluster. Assicurati di aggiungere il tuo indirizzo email se intendi amministrare il cluster.Quando viene creato il cluster, l'API GKE On-Prem applica al cluster i criteri di controllo dell'accesso basato sui ruoli (RBAC) di Kubernetes per concedere agli utenti amministratore il ruolo
clusterrole/cluster-admin
di Kubernetes, che fornisce l'accesso completo a tutte le risorse del cluster in tutti gli spazi dei nomi. In questo modo, gli utenti possono accedere alla console utilizzando la loro identità Google.cluster_name
: un nome a tua scelta per il cluster di utenti. Il nome non può essere modificato dopo la creazione del cluster. Il nome deve:- Deve contenere al massimo 40 caratteri.
- Deve contenere solo caratteri alfanumerici minuscoli o un trattino (
-
). - Deve iniziare con un carattere alfabetico
- Deve terminare con un carattere alfanumerico
control_plane_ips
: un elenco di uno o più indirizzi IPv4 per i nodi del piano di controllo. I nodi del piano di controllo eseguono il carico di lavoro del sistema. In genere, hai una singola macchina se utilizzi un deployment minimo o tre macchine se utilizzi un deployment ad alta disponibilità (HA). Specifica un numero dispari di nodi per avere un quorum di maggioranza per l'alta disponibilità. Puoi modificare questi indirizzi ogni volta che aggiorni o esegui l'upgrade di un cluster.worker_node_ips
: un elenco di uno o più indirizzi IPv4 per i nodi worker.control_plane_vip
: l'indirizzo IP virtuale (VIP) che hai scelto di configurare sul bilanciatore del carico per il server API Kubernetes del cluster utente.ingress_vip
: l'indirizzo IP che hai scelto di configurare sul bilanciatore del carico per il proxy in entrata.lb_address_pools
: un elenco di mappe che definiscono i pool di indirizzi da utilizzare dal bilanciatore del carico MetalLB. Il VIP in entrata deve trovarsi in uno di questi pool.
Salva le modifiche in
terraform.tfvars
.Inizializza e crea il piano Terraform:
terraform init
Terraform installa le librerie necessarie, ad esempio il provider Google Cloud.
Esamina la configurazione e apporta le modifiche necessarie:
terraform plan
Applica il piano Terraform per creare il cluster utente:
terraform apply
La creazione del cluster di utenti richiede almeno 15 minuti. Puoi visualizzare il cluster nella console Google Cloud nella pagina Cluster GKE.
Connettiti al cluster dell'utente
Quando crei un cluster utente nella console, il cluster viene configurato con i criteri di controllo dell'accesso basato sui ruoli (RBAC) di Kubernetes in modo da poter accedere al cluster utilizzando la tua identità Google Cloud. Quando crei un cluster di utenti con l'interfaccia alla gcloud CLI, per impostazione predefinita ti vengono concessi questi criteri RBAC se non includi il flag --admin-users
. Se includi --admin-users
per designare un altro utente come amministratore, sostituisci il valore predefinito e devi includere sia il tuo indirizzo email sia quello dell'altro amministratore. Per ulteriori informazioni sui
criteri IAM e RBAC obbligatori, consulta
Configurare l'autenticazione dell'identità di Google.
Tutti i cluster hanno un endpoint canonico. L'endpoint espone il server API Kubernetes utilizzato da kubectl
e altri servizi per comunicare con il piano di controllo del cluster tramite la porta TCP 443. Questo endpoint non è accessibile sulla rete internet pubblica. Se hai accesso all'endpoint privato del tuo cluster tramite il VPC, puoi connetterti direttamente all'endpoint privato e generare direttamente un file kubeconfig
. In caso contrario, puoi utilizzare
connect gateway.
Per accedere al cluster di utenti dalla riga di comando, è necessario un file kubeconfig
.
Esistono due modi per ottenere un file kubeconfig
:
Utilizza il gateway di connessione per accedere al cluster da un computer su cui è installato Google Cloud CLI. In questo caso,
kubectl
utilizzakubeconfig
del gateway Connect, che inoltra in modo sicuro il traffico all'endpoint privato per tuo conto.Per l'accesso diretto agli endpoint privati, crea un file
kubeconfig
sulla workstation di amministrazione e gestisci il cluster dalla workstation di amministrazione.
Assicurati di attendere che la console Google Cloud indichi che lo stato del cluster utente è corretto.
Connect Gateway
Esegui l'inizializzazione di gcloud CLI per l'utilizzo con il progetto host del parco risorse oppure esegui i seguenti comandi per accedere con il tuo Account Google, impostare il progetto host del parco risorse come predefinito e aggiornare i componenti:
gcloud auth login gcloud config set project PROJECT_ID gcloud components update
Recupera le credenziali del cluster utilizzate per interagire con Connect Gateway. Nel comando seguente, sostituisci
MEMBERSHIP_NAME
con il nome del tuo cluster. Per Google Distributed Cloud (solo software) su bare metal, il nome dell'appartenenza corrisponde al nome del cluster.gcloud container fleet memberships get-credentials MEMBERSHIP_NAME
Questo comando restituisce un comando connect specifico per il gateway
kubeconfig
che ti consente di connetterti al cluster tramite il gateway.
Dopo aver ottenuto le credenziali necessarie, puoi eseguire comandi utilizzandokubectl
come faresti normalmente per qualsiasi cluster Kubernetes e non devi
specificare il nome del file kubectl
, ad esempio:kubeconfig
kubectl get namespaces
Workstation di amministrazione
Utilizza il comando bmctl get credentials
per recuperare un file kubeconfig
per il cluster utente appena creato.
bmctl get credentials --cluster CLUSTER_NAME --admin-kubeconfig ADMIN_KUBECONFIG_PATH
Sostituisci quanto segue:
CLUSTER_NAME: il nome del cluster di utenti di destinazione.
ADMIN_KUBECONFIG_PATH: il percorso del file
kubeconfig
del cluster di amministrazione.
Un kubeconfig
con le credenziali del cluster utente viene scritto in un file,
bmctl-workspace/CLUSTER_NAME/CLUSTER_NAME-TIMESTAMP-kubeconfig
.
Il TIMESTAMP nel nome del file indica la data e l'ora di creazione del file.
Poiché questo file contiene le credenziali di autenticazione per il tuo cluster, devi archiviarlo in una posizione sicura con accesso limitato.