Questa è la seconda parte di una guida che illustra una piccola installazione proof of concept di Google Distributed Cloud. La prima parte riguarda Configura l'infrastruttura minima e mostra come pianificare gli indirizzi IP e configurare l'infrastruttura vSphere e Google Cloud necessaria per il tuo deployment. Questo documento si basa sulla configurazione e sulla pianificazione eseguite nella sezione precedente e mostra come creare una workstation di amministrazione, un cluster di amministrazione e un cluster utente nel tuo ambiente vSphere, utilizzando semplici modelli che puoi compilare qui in questo documento. Puoi quindi procedere con il deployment di un'applicazione.
Come per la configurazione dell'infrastruttura per questa semplice installazione, i cluster che configuri utilizzando questo documento potrebbero non essere adatti alle tue esigenze di produzione e ai casi d'uso effettivi. Per ulteriori informazioni, best practice e istruzioni per le installazioni di produzione, consulta le guide all'installazione.
Prima di iniziare
Assicurati di aver configurato i tuoi ambienti vSphere e Google Cloud come descritto in Configurare l'infrastruttura minima.
Se vuoi utilizzare Terraform per creare il cluster utente, devi utilizzare Terraform sulla workstation di amministrazione o su un altro computer.
Panoramica della procedura
Di seguito sono riportati i passaggi principali necessari per questa configurazione:
Accedi a Google Cloud CLI con un account che disponga delle autorizzazioni necessarie per creare account di servizio.
Raccogli le informazioni necessarie per configurare Google Distributed Cloud, inclusi nome utente e password di vCenter e gli indirizzi IP preparati nella sezione precedente.
Crea una workstation di amministrazione con le risorse e gli strumenti necessari per creare i cluster di amministrazione e utente, inclusi gli account di servizio aggiuntivi necessari per completare la configurazione.
Crea un cluster di amministrazione per gestire e aggiornare il cluster utente.
Crea un cluster utente per eseguire i tuoi carichi di lavoro.
1. Accedi a Google Cloud CLI
La configurazione di Google Distributed Cloud richiede più
account di servizio
con autorizzazioni diverse. Devi quindi aver eseguito l'accesso a Google Cloud CLI
con un account che disponga delle autorizzazioni necessarie per creare e configurare gli account di servizio, poiché gkeadm
utilizza la tua attuale proprietà account
gcloud CLI durante la configurazione.
Accedi a gcloud CLI. Puoi utilizzare qualsiasi Account Google, ma deve disporre delle autorizzazioni richieste. Se hai seguito la parte precedente di questa guida, probabilmente hai già eseguito l'accesso con un account appropriato per creare il tuo account di servizio di accesso ai componenti.
gcloud auth login
Verifica che la proprietà
account
dellgcloud CLI sia impostata correttamente:gcloud config list
L'output mostra il valore della proprietà SDK
account
. Ad esempio:[core] account = my-name@google.com disable_usage_reporting = False Your active configuration is: [default]
Assicurati che siano installati i componenti gcloud CLI più recenti:
gcloud components update
A seconda di come hai installato gcloud CLI, potrebbe essere visualizzato il seguente messaggio: "Non puoi eseguire questa azione perché il gestore dei componenti Google Cloud CLI è disabilitato per questa installazione. Per ottenere lo stesso risultato per questa installazione, puoi eseguire il seguente comando:" Segui le istruzioni per copiare e incollare il comando per aggiornare i componenti.
2. Raccogliere informazioni
Utilizza le informazioni preparate in Configurare l'infrastruttura minima per modificare i segnaposto nella tabella seguente:
Dettagli vSphere | |
---|---|
Il nome utente del tuo account vCenter | USERNAME |
La password del tuo account vCenter | PASSWORD |
Il tuo indirizzo di vCenter Server | ADDRESS |
Il percorso del certificato CA radice per il server vCenter, sulla macchina che utilizzerai per creare la workstation di amministrazione | CA_CERT_PATH |
Il nome del tuo data center vSphere | DATA_CENTER |
Il nome del tuo cluster vSphere | VSPHERE_CLUSTER |
Il nome o il percorso del tuo pool di risorse vSphere. Per maggiori informazioni, consulta vcenter.resourcePool. | RESOURCE_POOL |
Il nome del tuo datastore vSphere | DATASTORE |
Il nome della tua rete vSphere | NETWORK |
Indirizzi IP | |
Un indirizzo IP per la tua workstation di amministrazione | ADMIN_WS_IP |
Quattro indirizzi IP per i nodi del cluster di amministrazione. Include un indirizzo per un nodo aggiuntivo che può essere utilizzato durante l'upgrade e l'aggiornamento. |
ADMIN_CONTROL_PLANE_NODE_IP_1 ADMIN_CONTROL_PLANE_NODE_IP_2 ADMIN_CONTROL_PLANE_NODE_IP_3 |
Un indirizzo IP per il nodo del piano di controllo nel cluster utente. |
USER_CONTROL_PLANE_NODE_IP |
Quattro indirizzi IP per i nodi del cluster utente. Include un indirizzo per un nodo aggiuntivo che può essere utilizzato durante l'upgrade e l'aggiornamento. |
USER_NODE_IP_1 USER_NODE_IP_2 USER_NODE_IP_3 USER_NODE_IP_4 |
Un indirizzo IP virtuale (VIP) per il server API Kubernetes del cluster di amministrazione | ADMIN_CONTROL_PLANE_VIP |
Un VIP per il server API Kubernetes del cluster utente | USER_CONTROL_PLANE_VIP |
Un VIP in entrata per il cluster utente | USER_INGRESS_VIP |
Due VIP per i servizi di tipo LoadBalancer nel cluster utente. |
SERVICE_VIP_1 SERVICE_VIP_2 |
L'indirizzo IP di un server DNS raggiungibile dalla workstation di amministrazione e dai nodi del cluster | DNS_SERVER_IP |
L'indirizzo IP di un server NTP raggiungibile dalla workstation di amministrazione e dai nodi del cluster | NTP_SERVER_IP |
L'indirizzo IP del gateway predefinito per la subnet che contiene la workstation di amministrazione e i nodi del cluster | DEFAULT_GATEWAY_IP |
La netmask per la subnet in cui si trovano la workstation di amministrazione e i nodi
del cluster Esempio: 255.255.255.0 |
NETMASK |
Se la rete è protetta da un server proxy, l'URL del server proxy. Per maggiori informazioni, consulta proxy. Se necessario, compila manualmente il file di configurazione della workstation di amministrazione. | PROXY_URL |
Intervalli CIDR per servizi e pod | |
Il cluster di amministrazione e il cluster utente richiedono ciascuno un intervallo CIDR per i servizi e un intervallo CIDR per i pod. Utilizza i seguenti valori precompilati, a meno che non sia necessario modificarli per evitare la sovrapposizione con altri elementi della rete: | |
Un intervallo CIDR per i servizi nel cluster di amministrazione | 10.96.232.0/24 |
Un intervallo CIDR per i pod nel cluster di amministrazione | 192.168.0.0/16 |
Un intervallo CIDR per i servizi nel cluster utente | 10.96.0.0/20 |
Un intervallo CIDR per i pod nel cluster utente | 192.168.0.0/16 |
Dettagli di Google Cloud | |
L'ID del progetto Cloud scelto | PROJECT_ID |
Il percorso del file di chiave JSON per l'account di servizio di accesso ai componenti che hai configurato nella sezione precedente, sulla macchina che utilizzerai per creare la workstation di amministrazione. | COMPONENT_ACCESS_SA_KEY_PATH |
L'indirizzo email associato al tuo account
Google Cloud. Ad esempio: alex@example.com . |
GOOGLE_ACCOUNT_EMAIL |
3. Creazione di una workstation di amministrazione
Prima di poter creare qualsiasi cluster, devi creare una workstation di amministrazione e connetterti alla workstation tramite SSH. La workstation di amministrazione è una VM autonoma con gli strumenti e le risorse necessari per creare cluster GKE Enterprise nel tuo ambiente vSphere. Puoi utilizzare lo strumento a riga di comando gkeadm
per creare la workstation di amministrazione.
Scarica gkeadm
Scarica gkeadm
nella tua directory attuale:
gsutil cp gs://gke-on-prem-release/gkeadm/1.29.100-gke.248/linux/gkeadm ./ chmod +x gkeadm
È necessaria la versione gkeadm
(che è anche la versione di Google Distributed Cloud)
per creare i file di configurazione dei cluster di amministrazione e utente. Per controllare la versione di gkeadm
, esegui questo comando:
./gkeadm version
L'output di esempio seguente mostra la versione.
gkeadm 1.29.0 (1.29.100-gke.248)
Anche se puoi scaricare un'altra versione di gkeadm
, questa guida presuppone che tu stia installando la versione 1.29.100-gke.248 e la utilizzi in tutti i comandi e i file di configurazione.
Crea il file delle credenziali
Crea e salva un file denominato credential.yaml
nella directory corrente con il seguente contenuto:
apiVersion: v1 kind: CredentialFile items: - name: vCenter username: "USERNAME" password: "PASSWORD"
Crea il file di configurazione della workstation di amministrazione
Crea e salva un file denominato admin-ws-config.yaml
, sempre nella directory corrente, con il seguente contenuto:
gcp: componentAccessServiceAccountKeyPath: "COMPONENT_ACCESS_SA_KEY_PATH" vCenter: credentials: address: "ADDRESS" fileRef: path: "credential.yaml" entry: "vCenter" datacenter: "DATA_CENTER" datastore: "DATASTORE" cluster: "VSPHERE_CLUSTER" network: "NETWORK" resourcePool: "RESOURCE_POOL" caCertPath: "CA_CERT_PATH" proxyUrl: "" adminWorkstation: name: "minimal-installation-admin-workstation" cpus: 4 memoryMB: 8192 diskGB: 50 dataDiskName: gke-on-prem-admin-workstation-data-disk/minimal-installation-data-disk.vmdk dataDiskMB: 512 network: ipAllocationMode: "static" hostConfig: ip: "ADMIN_WS_IP" gateway: "DEFAULT_GATEWAY_IP" netmask: "NETMASK" dns: - "DNS_SERVER_IP" proxyUrl: "" ntpServer: ntp.ubuntu.com
Crea la tua workstation di amministrazione
Crea la tua workstation di amministrazione utilizzando il seguente comando:
./gkeadm create admin-workstation --auto-create-service-accounts
Esecuzione di questo comando:
- Crea la tua workstation di amministrazione
- Crea automaticamente gli eventuali account di servizio aggiuntivi necessari per l'installazione
- Crea i file di configurazione dei modelli per i cluster di amministrazione e utente
L'output fornisce informazioni dettagliate sulla creazione della tua workstation di amministrazione e fornisce un comando che puoi utilizzare per ottenere una connessione SSH alla workstation di amministrazione. Ad esempio:
... Admin workstation is ready to use. Admin workstation information saved to /usr/local/google/home/me/my-admin-workstation This file is required for future upgrades SSH into the admin workstation with the following command: ssh -i /usr/local/google/home/me/.ssh/gke-admin-workstation ubuntu@172.16.20.49 ********************************************************************
Nell'output precedente, l'indirizzo IP è un esempio. L'indirizzo IP della tua workstation di amministrazione sarà diverso. Prendi nota dell'indirizzo IP della workstation di amministrazione. Ti servirà nel passaggio successivo.
Per informazioni più dettagliate sulla creazione di una workstation di amministrazione, consulta Creare una workstation di amministrazione.
Connettiti alla workstation di amministrazione
Utilizza il comando visualizzato nell'output precedente per ottenere una connessione SSH alla workstation di amministrazione. Ad esempio:
ssh -i /usr/local/google/home/me/.ssh/gke-admin-workstation ubuntu@172.16.20.49
Se devi trovare di nuovo questo comando, gkeadm
genera un file denominato gke-admin-ws-...
nella directory del computer locale in cui hai eseguito gkeadm create admin-workstation
.
Questo file contiene i dettagli della workstation di amministrazione, incluso il comando SSH.
Sulla workstation di amministrazione, inserisci exit
per terminare la connessione SSH e tornare alla macchina locale.
Copia la chiave di audit logging sulla workstation di amministrazione
Nella sezione precedente, hai creato un file di chiave JSON per il tuo account di servizio di audit logging.
Copia il file della chiave JSON nella home directory sulla workstation di amministrazione. Ad esempio, sulla tua macchina locale:
scp -i /usr/local/google/home/me/.ssh/gke-admin-workstation audit-logging-key.json ubuntu@172.16.20.49:~
Visualizzare i file sulla workstation di amministrazione
Ancora una volta, crea una connessione SSH alla workstation di amministrazione.
Sulla workstation di amministrazione, elenca i file nella home directory:
ls -1
L'output dovrebbe includere:
admin-cluster.yaml
, un file di configurazione modello per creare il cluster di amministrazione.user-cluster.yaml
, un file di configurazione modello per creare il cluster utente.- Il file del certificato vCenter che hai specificato nella configurazione della workstation di amministrazione
- Il file
credential.yaml
che hai specificato nella configurazione della workstation di amministrazione. - Il file della chiave JSON per l'account di servizio di audit logging.
- File di chiave JSON per due account di servizio creati da
gkeadm
per te: un account di servizio connect-register e un account di servizio logging-monitoraggio, nonché il file della chiave per l'account di servizio di accesso ai componenti che hai creato in precedenza.
Ad esempio:
admin-cluster.yaml admin-ws-config.yaml audit-logging-key.json sa-key.json connect-register-sa-2203040617.json credential.yaml log-mon-sa-2203040617.json logs vc01-cert.pem user-cluster.yaml
Per creare i cluster, dovrai specificare alcuni di questi nomi file nei file di configurazione. Utilizza i nomi file come valori per i segnaposto nella seguente tabella:
Connetti-registra il nome del file della chiave dell'account di servizio Esempio: connect-register-sa-2203040617.json |
CONNECT_REGISTER_SA_KEY |
Nome file della chiave dell'account di servizio di monitoraggio dei log Esempio: log-mon-sa-2203040617.json |
LOG_MON_SA_KEY |
Nome file della chiave dell'account di servizio dell'audit logging Esempio: audit-logging-key.json |
AUDIT_LOG_SA_KEY |
Nome file della chiave dell'account di servizio di accesso ai componenti Esempio: sa-key.json |
COMPONENT_ACCESS_SA_KEY |
Nome del file del certificato vCenter Esempio: vc01-cert.pem |
CA_CERT_FILE |
4. Crea un cluster di amministrazione
Ora che hai una workstation di amministrazione configurata con vCenter e altri dettagli, puoi utilizzarla per creare un cluster di amministrazione nel tuo ambiente vSphere. Assicurati di disporre di una connessione SSH alla workstation di amministrazione, come descritto in precedenza, prima di iniziare questo passaggio. Tutti i comandi seguenti vengono eseguiti sulla workstation di amministrazione.
Crea il file di configurazione del cluster di amministrazione
Apri admin-cluster.yaml
e sostituisci i contenuti con i seguenti:
apiVersion: v1 kind: AdminCluster name: "minimal-installation-admin-cluster" bundlePath: "/var/lib/gke/bundles/gke-onprem-vsphere-1.29.100-gke.248-full.tgz" vCenter: address: "ADDRESS" datacenter: "DATA_CENTER" cluster: "VSPHERE_CLUSTER" resourcePool: "RESOURCE_POOL" datastore: "DATASTORE" caCertPath: "CA_CERT_FILE" credentials: fileRef: path: "credential.yaml" entry: "vCenter" network: hostConfig: dnsServers: - "DNS_SERVER_IP" ntpServers: - "NTP_SERVER_IP" serviceCIDR: "10.96.232.0/24" podCIDR: "192.168.0.0/16" vCenter: networkName: "NETWORK" controlPlaneIPBlock: netmask: "NETMASK" gateway: "DEFAULT_GATEWAY_IP" ips: - ip: "ADMIN_CONTROL_PLANE_NODE_IP_1" hostname: "admin-cp-vm-1" - ip: "ADMIN_CONTROL_PLANE_NODE_IP_2" hostname: "admin-cp-vm-2" - ip: "ADMIN_CONTROL_PLANE_NODE_IP_3" hostname: "admin-cp-vm-3" loadBalancer: vips: controlPlaneVIP: "ADMIN_CONTROL_PLANE_VIP" kind: "MetalLB" adminMaster: cpus: 4 memoryMB: 16384 replicas: 3 antiAffinityGroups: enabled: false componentAccessServiceAccountKeyPath: "COMPONENT_ACCESS_SA_KEY" gkeConnect: projectID: "PROJECT_ID" registerServiceAccountKeyPath: "CONNECT_REGISTER_SA_KEY" stackdriver: projectID: "PROJECT_ID" clusterLocation: "us-central1" enableVPC: false serviceAccountKeyPath: "LOG_MON_SA_KEY" disableVsphereResourceMetrics: false cloudAuditLogging: projectID: "PROJECT_ID" clusterLocation: us-central1 serviceAccountKeyPath: "AUDIT_LOG_SA_KEY"
Convalida il file di configurazione del cluster di amministrazione
Verifica che il file di configurazione del cluster di amministrazione sia valido e possa essere utilizzato per la creazione del cluster:
gkectl check-config --config admin-cluster.yaml
Importa immagini sistema operativo in vSphere
Esegui gkectl prepare
con il file di configurazione completato per importare le immagini del sistema operativo dei nodi in vSphere:
gkectl prepare --config admin-cluster.yaml --skip-validation-all
L'esecuzione di questo comando importa le immagini in vSphere e le contrassegna come modelli di VM, inclusa l'immagine per il cluster di amministrazione.
La restituzione di questo comando può richiedere alcuni minuti.
Crea il cluster di amministrazione
Crea il cluster di amministrazione:
gkectl create admin --config admin-cluster.yaml
Riprendi la creazione del cluster di amministrazione dopo un errore
Se la creazione del cluster di amministrazione non riesce o viene annullata, puoi eseguire di nuovo il comando create
:
gkectl create admin --config admin-cluster.yaml
Individuare il file kubeconfig del cluster di amministrazione
Il comando gkectl create admin
crea un file kubeconfig denominato
kubeconfig
nella directory attuale. In seguito avrai bisogno di questo file kubeconfig
per interagire con il cluster di amministrazione.
Verifica che il cluster di amministrazione sia in esecuzione
Verifica che il cluster di amministrazione sia in esecuzione:
kubectl get nodes --kubeconfig kubeconfig
L'output mostra i nodi del cluster di amministrazione. Ad esempio:
admin-cp-vm-1 Ready control-plane,master ... admin-cp-vm-2 Ready control-plane,master ... admin-cp-vm-3 Ready control-plane,master ...
Abilita autorizzazione RBAC
Per concedere al tuo account utente il ruolo Kubernetes clusterrole/cluster-admin
nel cluster, esegui questo comando:
gcloud container fleet memberships generate-gateway-rbac \ --membership=minimal-installation-admin-cluster \ --role=clusterrole/cluster-admin \ --users=GOOGLE_ACCOUNT_EMAIL \ --project=PROJECT_ID \ --kubeconfig=kubeconfig \ --context=minimal-installation-admin-cluster \ --apply
L'output di questo comando è simile al seguente, che viene troncato per motivi di leggibilità:
Validating input arguments. Specified Cluster Role is: clusterrole/cluster-admin Generated RBAC policy is: -------------------------------------------- ... Applying the generate RBAC policy to cluster with kubeconfig: kubeconfig, context: minimal-installation-admin-cluster Writing RBAC policy for user: GOOGLE_ACCOUNT_EMAIL to cluster. Successfully applied the RBAC policy to cluster.
Tra le altre cose, il criterio RBAC ti consente di accedere al cluster nella console Google Cloud utilizzando la tua identità Google per visualizzare ulteriori dettagli sul cluster.
Registrazione automatica nell'API GKE On-Prem
Poiché l'API GKE On-Prem è abilitata nel tuo progetto, il cluster viene registrato automaticamente nell'API GKE On-Prem. La registrazione del cluster di amministrazione nell'API GKE On-Prem consente di utilizzare strumenti standard (console Google Cloud, Google Cloud CLI o Terraform) per creare, eseguire l'upgrade, aggiornare ed eliminare i cluster utente gestiti dal cluster di amministrazione. La registrazione del cluster ti consente anche di eseguire i comandi gcloud
per ricevere informazioni sul cluster.
5. Creazione di un cluster utente
Questa sezione fornisce i passaggi per creare il cluster utente utilizzando la console, gkectl
, Terraform o gcloud CLI.
gkectl
Assicurati di disporre di una connessione SSH alla workstation di amministrazione, come descritto in precedenza, prima di iniziare questa procedura. Tutti i comandi seguenti vengono eseguiti sulla workstation di amministrazione.
Crea il file di blocco IP del cluster utente
Crea un file denominato
user-ipblock.yaml
.Copia e incolla i seguenti contenuti in
user-ipblock.yaml
e salva il file:blocks: - netmask: "NETMASK" gateway: "DEFAULT_GATEWAY_IP" ips: - ip: "USER_NODE_IP_1" hostname: "user-vm-1" - ip: "USER_NODE_IP_2" hostname: "user-vm-2" - ip: "USER_NODE_IP_3" hostname: "user-vm-3" - ip: "USER_NODE_IP_4" hostname: "user-vm-4"
Crea il file di configurazione del cluster utente
Crea un file denominato
user-cluster.yaml
nella stessa directory diuser-ipblock.yaml
.Copia e incolla i seguenti contenuti in
user-cluster.yaml
e salva il file:
apiVersion: v1 kind: UserCluster name: "minimal-installation-user-cluster" gkeOnPremVersion: "1.29.100-gke.248" enableControlplaneV2: true network: hostConfig: dnsServers: - "DNS_SERVER_IP" ntpServers: - "NTP_SERVER_IP" ipMode: type: "static" ipBlockFilePath: "user-ipblock.yaml" serviceCIDR: "10.96.0.0/20" podCIDR: "192.168.0.0/16" controlPlaneIPBlock: netmask: "NETMASK" gateway: "DEFAULT_GATEWAY_IP" ips: - ip: "USER_CONTROL_PLANE_NODE_IP" hostname: "cp-vm-1" loadBalancer: vips: controlPlaneVIP: "USER_CONTROL_PLANE_VIP" ingressVIP: "USER_INGRESS_VIP" kind: "MetalLB" metalLB: addressPools: - name: "uc-address-pool" addresses: - "USER_INGRESS_VIP/32" - "SERVICE_VIP_1/32" - "SERVICE_VIP_2/32" enableDataplaneV2: true nodePools: - name: "uc-node-pool" cpus: 4 memoryMB: 8192 replicas: 3 enableLoadBalancer: true antiAffinityGroups: enabled: false gkeConnect: projectID: "PROJECT_ID" registerServiceAccountKeyPath: "CONNECT_REGISTER_SA_KEY" stackdriver: projectID: "PROJECT_ID" clusterLocation: "us-central1" enableVPC: false serviceAccountKeyPath: "LOG_MON_SA_KEY" disableVsphereResourceMetrics: false autoRepair: enabled: true
Convalida la configurazione e crea il cluster
Verifica che il file di configurazione del cluster utente sia valido e possa essere utilizzato per la creazione del cluster:
gkectl check-config --kubeconfig kubeconfig --config user-cluster.yaml
Crea il cluster utente:
gkectl create cluster --kubeconfig kubeconfig --config user-cluster.yaml
La creazione del cluster richiede circa 30 minuti.
Individuare il file kubeconfig del cluster utente
Il comando gkectl create cluster
crea un file kubeconfig denominato
USER_CLUSTER_NAME-kubeconfig
nella directory attuale. In seguito, avrai bisogno di questo file kubeconfig per interagire con il cluster utente.
Verifica che il cluster utente sia in esecuzione
Verifica che il cluster utente sia in esecuzione:
kubectl get nodes --kubeconfig USER_CLUSTER_KUBECONFIG
Sostituisci USER_CLUSTER_KUBECONFIG con il percorso del file kubeconfig del cluster utente.
L'output mostra i nodi del cluster utente. Ad esempio:
cp-vm-1 Ready control-plane,master user-vm-1 Ready user-vm-2 Ready user-vm-3 Ready
Abilita autorizzazione RBAC
Per concedere al tuo account utente il ruolo Kubernetes clusterrole/cluster-admin
nel cluster, esegui questo comando:
gcloud container fleet memberships generate-gateway-rbac \ --membership=minimal-installation-user-cluster \ --role=clusterrole/cluster-admin \ --users=GOOGLE_ACCOUNT_EMAIL \ --project=PROJECT_ID \ --kubeconfig=USER_CLUSTER_KUBECONFIG \ --context=minimal-installation-user-cluster \ --apply
L'output di questo comando è simile al seguente, che viene troncato per motivi di leggibilità:
Validating input arguments. Specified Cluster Role is: clusterrole/cluster-admin Generated RBAC policy is: -------------------------------------------- ... Applying the generate RBAC policy to cluster with kubeconfig: kubeconfig, context: minimal-installation-admin-cluster Writing RBAC policy for user: GOOGLE_ACCOUNT_EMAIL to cluster. Successfully applied the RBAC policy to cluster.
Tra le altre cose, il criterio RBAC ti consente di accedere al cluster nella console Google Cloud utilizzando la tua identità Google per visualizzare ulteriori dettagli sul cluster.
Registrazione automatica nell'API GKE On-Prem
Poiché l'API GKE On-Prem è abilitata nel tuo progetto, il cluster viene registrato automaticamente nell'API GKE On-Prem. Ciò consente di utilizzare la console o gcloud CLI per visualizzare i dettagli del cluster e gestire il ciclo di vita del cluster. Ad esempio, puoi eseguire i comandi gcloud
per ottenere informazioni sul cluster utente.
Console
Nella console Google Cloud, vai alla pagina Crea un cluster GKE on VMware.
Seleziona il progetto Google Cloud in cui vuoi creare il cluster. Il progetto selezionato viene utilizzato anche come progetto host del parco risorse. Deve essere lo stesso progetto in cui è registrato il cluster di amministrazione. Una volta creato, il cluster utente viene registrato automaticamente nel parco risorse del progetto selezionato.
Le sezioni seguenti illustrano la configurazione del cluster utente.
Prerequisiti
Acquisisci familiarità con le informazioni riportate nella pagina Prerequisiti.
In fondo alla pagina, fai clic su Avanti.
Impostazioni di base del cluster
In Nome, inserisci un nome per il cluster utente, ad esempio
minimal-installation-user-cluster
.Per Cluster di amministrazione, seleziona minimal-installation-admin-cluster.
Nel campo Posizione API Google Cloud, seleziona us-central1.
Per Versione, seleziona 1.29.100-gke.248.
Non è necessario aprire la sezione Autorizzazione o la sezione Configurazione di vCenter.
Fai clic su Avanti.
Piano di controllo
In IP dei nodi del piano di controllo, per Gateway, inserisci DEFAULT_GATEWAY_IP.
In Subnet mask, inserisci NETMASK.
In Indirizzi IP, per Indirizzo IP 1, inserisci USER_CONTROL_PLANE_NODE_IP. Lascia vuoto Nome host 1.
Fai clic su Avanti.
Networking
In questa sezione specifichi gli indirizzi IP per nodi, pod e servizi del tuo cluster. Un cluster utente deve avere un indirizzo IP per ogni nodo e un indirizzo IP aggiuntivo per un nodo temporaneo che è necessario durante gli upgrade, gli aggiornamenti e la riparazione automatica del cluster. Per ulteriori informazioni, vedi Quanti indirizzi IP servono a un cluster utente?.
In IP dei nodi worker, per la modalità IP, assicurati che sia selezionata l'opzione Statico.
In Gateway, inserisci DEFAULT_GATEWAY_IP.
In Subnet mask, inserisci NETMASK.
In Indirizzi IP, inserisci i seguenti indirizzi:
- USER_NODE_IP_1
- USER_NODE_IP_2
- USER_NODE_IP_3
- USER_NODE_IP_4
Lascia vuoti i campi Hostname (Nome host).
Per CIDR del servizio, inserisci 10.96.0.0/20. Per CIDR pod, inserisci 192.168.0.0/16.
In DNS Server 1 (Server DNS 1), inserisci DNS_SERVER_IP.
Per NTP Server 1, inserisci NTP_SERVER_IP.
Lascia vuoto DNS search domain (Dominio di ricerca DNS).
Fai clic su Avanti.
Bilanciatore del carico
Per Tipo di bilanciatore del carico, seleziona Bundled with MetalLB.
In Pool di indirizzi, utilizza il nome predefinito.
In Indirizzi IP, per Intervallo di indirizzi IP 1, inserisci USER_INGRESS_VIP/32.
Fai clic su Aggiungi intervallo di indirizzi IP. In Intervallo di indirizzi IP 1, inserisci SERVICE_VIP_1/32
Fai clic su Aggiungi intervallo di indirizzi IP. In Intervallo di indirizzi IP 2, inserisci SERVICE_VIP_2/32
In Assegnazione di indirizzi IP, seleziona Automatica.
Lascia deselezionata l'opzione Evita indirizzi IP con bug.
In IP virtuali, per VIP piano di controllo inserisci USER_CONTROL_PLANE_VIP. Il campo Vip Ingress è già compilato.
Fai clic su Continua.
Funzionalità
Lascia invariate tutte le impostazioni predefinite.
Fai clic su Avanti.
Pool di nodi
Lascia invariate tutte le impostazioni predefinite.
Fai clic su Verifica e completa per creare il cluster utente. La creazione del cluster utente richiede almeno 15 minuti. Nella console vengono visualizzati messaggi di stato durante la verifica delle impostazioni e la creazione del cluster nel data center.
Se si verifica un errore durante la verifica delle impostazioni, nella console viene visualizzato un messaggio di errore che dovrebbe essere abbastanza chiaro per consentirti di risolvere il problema di configurazione e di riprovare a creare il cluster.
Per ulteriori informazioni sui possibili errori e su come correggerli, vedi Risolvere i problemi dei cluster registrati nell'API GKE On-Prem.
Terraform
Questa sezione mostra come creare un cluster utente e un pool di nodi utilizzando Terraform. Per ulteriori informazioni e altri esempi, consulta quanto segue:
Crea una directory e un nuovo file al suo interno. Il nome file deve avere l'estensione
.tf
. In questa guida, il file è denominatomain.tf
.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
Verifica la risorsa Terraform del cluster utente:
Il seguente esempio di risorsa Terraform è compilato con i valori inseriti nella tabella di pianificazione nella sezione precedente.
resource "google_gkeonprem_vmware_cluster" "cluster-basic" { name = "minimal-installation-user-cluster" project = "PROJECT_ID" location = "us-central1" admin_cluster_membership = "projects/PROJECT_ID/locations/global/memberships/minimal-installation-admin-cluster" description = "User cluster config with MetalLB, static IPs, and Controlplane V2" enable_control_plane_v2 = "true" on_prem_version = "1.29.100-gke.248" control_plane_node { cpus = 4 memory = 8192 replicas = 1 } network_config { service_address_cidr_blocks = ["10.96.0.0/20"] pod_address_cidr_blocks = ["192.168.0.0/16"] host_config { dns_servers = ["DNS_SERVER_IP"] ntp_servers = ["NTP_SERVER_IP"] } static_ip_config { ip_blocks { netmask = "NETMASK" gateway = "DEFAULT_GATEWAY_IP" ips { ip = "USER_NODE_IP_1" hostname = "user-vm-1" } ips { ip = "USER_NODE_IP_2" hostname = "user-vm-2" } ips { ip = "USER_NODE_IP_3" hostname = "user-vm-3" } ips { ip = "USER_NODE_IP_4" hostname = "user-vm-4" } } } control_plane_v2_config { control_plane_ip_block { netmask = "NETMASK" gateway = "DEFAULT_GATEWAY_IP" ips { ip = "USER_CONTROL_PLANE_NODE_IP" hostname = "cp-vm-1" } } } } load_balancer { vip_config { control_plane_vip = "USER_CONTROL_PLANE_VIP" ingress_vip = "USER_INGRESS_VIP" } metal_lb_config { address_pools { pool = "uc-address-pool" manual_assign = "true" addresses = ["USER_INGRESS_VIP/32", "SERVICE_VIP_1/32", "SERVICE_VIP_2/32"] } } } authorization { admin_users { username = "GOOGLE_ACCOUNT_EMAIL" } } provider = google-beta } resource "google_gkeonprem_vmware_node_pool" "my-node-pool-1" { name = "uc-node-pool" project = "PROJECT_ID" vmware_cluster = "minimal-installation-user-cluster" location = "us-central1" config { replicas = 3 image_type = "ubuntu_containerd" enable_load_balancer = "true" } depends_on = [ google_gkeonprem_vmware_cluster.cluster-basic ] provider = google-beta }
Copia la risorsa Terraform in
main.tf
e salva il file.Inizializza e crea il piano Terraform:
terraform init
Terraform installa le librerie necessarie, ad esempio il provider Google Cloud.
Rivedi la configurazione e apporta le modifiche necessarie:
terraform plan
Applica il piano Terraform per creare il cluster utente:
terraform apply
Quando richiesto, inserisci
yes
.Sono necessari circa 15 minuti (o più, a seconda della rete) per creare il cluster utente di base e il pool di nodi.
gcloud
Crea il cluster:
gcloud container vmware clusters create minimal-installation-user-cluster \ --project=PROJECT_ID \ --admin-cluster-membership=projects/PROJECT_ID/locations/global/memberships/minimal-installation-admin-cluster \ --location=us-central1 \ --version=1.29.100-gke.248 \ --admin-users=GOOGLE_ACCOUNT_EMAIL \ --service-address-cidr-blocks=10.96.0.0/20 \ --pod-address-cidr-blocks=192.168.0.0/16 \ --metal-lb-config-address-pools='pool=uc-address-pool,avoid-buggy-ips=False,manual-assign=False,addresses=USER_INGRESS_VIP/32;SERVICE_VIP_1/32;SERVICE_VIP_2/32' \ --control-plane-vip=USER_CONTROL_PLANE_VIP \ --ingress-vip=USER_INGRESS_VIP \ --static-ip-config-ip-blocks='gateway=DEFAULT_GATEWAY_IP,netmask=NETMASK,ips=USER_NODE_IP_1;USER_NODE_IP_2;USER_NODE_IP_3;USER_NODE_IP_4' \ --dns-servers=DNS_SERVER_IP \ --ntp-servers=NTP_SERVER_IP \ --enable-control-plane-v2 \ --enable-dataplane-v2 \ --control-plane-ip-block='gateway=DEFAULT_GATEWAY_IP,netmask=NETMASK,ips=USER_CONTROL_PLANE_NODE_IP'
L'output del comando è simile al seguente:
Waiting for operation [projects/example-project-12345/locations/us-central1/operations/operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179] to complete.
Nell'output di esempio, la stringa operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179
è il OPERATION_ID
dell'operazione a lunga esecuzione. Puoi
scoprire lo stato dell'operazione con il seguente comando:
gcloud container vmware operations describe OPERATION_ID \ --project=PROJECT_ID \ --location=us-central1
Per ulteriori informazioni, consulta la pagina relativa alle operazioni di gcloud container vmware.
Per creare il cluster utente sono necessari almeno 15 minuti. Puoi visualizzare il cluster nella console nella pagina di riepilogo dei cluster di Google Kubernetes Engine.
Crea un pool di nodi:
gcloud container vmware node-pools create uc-node-pool \ --cluster=minimal-installation-user-cluster \ --project=PROJECT_ID \ --location=us-central1 \ --image-type=ubuntu_containerd \ --boot-disk-size=40 \ --cpus=4 \ --memory=8192 \ --replicas=3 \ --enable-load-balancer
Passaggi successivi
Hai completato questa installazione minima di Google Distributed Cloud. Come ulteriore follow-up facoltativo, puoi vedere la tua installazione in azione eseguendo il deployment di un'applicazione.