Crea un cluster di amministrazione utilizzando i client API GKE On-Prem

Questa pagina descrive come creare un cluster di amministrazione utilizzando la console Google Cloud o Google Cloud CLI (gcloud CLI). Entrambi questi client Google Cloud standard utilizzano l'API GKE On-Prem per creare il cluster.

Che cos'è l'API GKE On-Prem?

L'API GKE On-Prem è un'API ospitata da Google Cloud che ti consente di gestire il ciclo di vita dei tuoi cluster on-premise utilizzando Terraform e le applicazioni standard di Google Cloud. L'API GKE On-Prem viene eseguita nell'infrastruttura di Google Cloud. Terraform, la console e gcloud CLI sono client dell'API che utilizzano l'API per creare cluster nel tuo data center.

Per gestire il ciclo di vita dei cluster, l'API GKE On-Prem deve archiviare i metadati sullo stato del cluster in Google Cloud, utilizzando la regione Google Cloud specificata al momento della creazione del cluster. Questi metadati consentono all'API di gestire il ciclo di vita del cluster e non includono dati specifici dei carichi di lavoro.

Quando crei un cluster utilizzando un client API GKE On-Prem, specifichi un progetto Google Cloud. Una volta creato, il cluster viene registrato automaticamente nel parco risorse del progetto specificato. Questo progetto è indicato come progetto host del parco risorse. Il progetto host del parco risorse non può essere modificato dopo la creazione del cluster.

Se preferisci, puoi creare un cluster di amministrazione creando un file di configurazione del cluster di amministrazione e utilizzando bmctl, come descritto in Creazione di un cluster di amministrazione.

Se vuoi utilizzare la console o gcloud CLI per gestire il ciclo di vita dei cluster creati utilizzando bmctl, consulta Configurare i cluster per la gestione tramite l'API GKE On-Prem.

Autorizzazioni IAM

Se non sei proprietario di un progetto Google Cloud, devi chiedere a un proprietario del progetto di concederti i seguenti ruoli:

Se vuoi accedere alle pagine GKE Enterprise e GKE nella console, devi avere anche roles/container.viewer.

Per informazioni sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.

Accesso da riga di comando

Dopo la creazione del cluster, se vuoi utilizzare il gateway di connessione per eseguire i comandi kubectl sul cluster su computer diversi dalla workstation di amministrazione, installa i seguenti strumenti a riga di comando su quello che prevedi di utilizzare.

  • L'ultima versione di gcloud CLI.

  • kubectl per l'esecuzione di comandi sui cluster Kubernetes. Se devi installare kubectl, segui queste instructions.

Scegli il client per creare il cluster di amministrazione

Puoi utilizzare la console o gcloud CLI per creare un cluster di amministrazione gestito dall'API GKE On-Prem. Se è la prima volta che installi Google Distributed Cloud, potresti trovare la console più facile da usare rispetto a gcloud CLI.

Dopo aver acquisito familiarità con le informazioni da fornire per la creazione dei cluster, gcloud CLI potrebbe essere più utile perché puoi salvare il comando con i suoi argomenti in un file di testo. Se utilizzi uno strumento CI/CD come Cloud Build, puoi utilizzare i comandi gcloud per creare un cluster e specificare il flag --impersonate-service-account per automatizzare la creazione.

Prerequisiti

Console

  1. Nella console, vai alla pagina Crea un cluster GKE on Bare Metal.

    Vai a Creare un cluster GKE on Bare Metal

  2. Seleziona il progetto Google Cloud in cui vuoi creare il cluster. Il progetto selezionato viene utilizzato anche come progetto host del parco risorse.

La pagina Prerequisiti mostra i requisiti per la tua workstation di amministrazione e le macchine con nodi cluster. Lo Strumento di pianificazione degli indirizzi IP nella sezione Requisiti di rete consente di pianificare gli indirizzi IP necessari per un'installazione minima di un cluster di amministrazione e un cluster utente.

Prerequisiti della workstation di amministrazione

Espandi questa sezione per visualizzare i requisiti hardware, sistema operativo e connettività per la workstation di amministrazione.

Prerequisiti delle macchine dei nodi cluster

Espandi questa sezione per visualizzare i requisiti hardware, del sistema operativo e di connettività per le macchine con nodi cluster.

Requisiti di rete

Questa sezione ti aiuta a pianificare gli indirizzi IP necessari per un ambiente minimo. Facoltativamente, nella sezione IP del nodo e indirizzi IP virtuali, puoi fornire un indirizzo IP iniziale del nodo e un indirizzo IP virtuale (VIP). La console mostrerà una tabella degli indirizzi IP necessari. Questi indirizzi IP non vengono applicati alla configurazione del cluster di amministrazione. Il loro scopo è quello di aiutarti a pianificare gli indirizzi IP necessari per l'installazione. Puoi scaricare la tabella in un file CSV e importarla in un foglio di lavoro o in uno strumento di pianificazione degli indirizzi IP da utilizzare come punto di partenza per monitorare gli indirizzi IP necessari per i cluster.

Esamina le risorse di Google Cloud:

Assicurati che tutte le API di Google richieste siano abilitate nel progetto host del parco risorse. Inoltre, devi abilitare l'API GKE On-Prem:

gcloud services enable --project FLEET_HOST_PROJECT_ID \
  gkeonprem.googleapis.com

Sostituisci FLEET_HOST_PROJECT_ID con l'ID del progetto host del parco risorse.

Prima di creare il cluster, esegui il comando bmctl register bootstrap sulla workstation di amministrazione come descritto in Preparare l'ambiente di bootstrap. Questo comando può creare gli account di servizio richiesti con le autorizzazioni IAM necessarie per creare il cluster di amministrazione. Se preferisci, puoi configurare gli account di servizio manualmente.

Quando è tutto pronto per iniziare, fai clic su Installa ambiente di bootstrap nella barra di navigazione a sinistra.

Interfaccia a riga di comando gcloud

Prerequisiti hardware, di rete e del sistema operativo

La creazione di un cluster di amministrazione mediante un client API GKE On-Prem richiede gli stessi prerequisiti hardware, di rete e del sistema operativo della creazione del cluster mediante bmctl. Per maggiori dettagli, consulta Prerequisiti di installazione.

API di Google richieste

Assicurati che tutte le API di Google richieste siano abilitate nel progetto host del parco risorse. Inoltre, devi abilitare l'API GKE On-Prem:

gcloud services enable --project FLEET_HOST_PROJECT_ID \
  gkeonprem.googleapis.com

Sostituisci FLEET_HOST_PROJECT_ID con l'ID del progetto host del parco risorse.

Account di servizio e autorizzazioni richiesti

Prima di creare il cluster, esegui il comando bmctl register bootstrap sulla workstation di amministrazione come descritto in Preparare l'ambiente di bootstrap. Questo comando può creare gli account di servizio richiesti con le autorizzazioni IAM necessarie per creare il cluster di amministrazione. Se preferisci, puoi configurare gli account di servizio manualmente.

Pianificare gli indirizzi IP

Prima di creare il cluster di amministrazione, devi pianificare gli indirizzi IP per i cluster. Vedi Pianificare gli indirizzi IP per un esempio di come allocare indirizzi IP per un cluster di amministrazione ad alta disponibilità e due cluster utente ad alta disponibilità. Anche se utilizzi gcloud CLI per creare il cluster di amministrazione, è consigliabile seguire i passaggi della console in questa sezione per utilizzare lo strumento di pianificazione degli indirizzi IP.

prepara l'ambiente di bootstrap

Prima di creare il cluster di amministrazione, devi eseguire il comando bmctl register bootstrap sulla workstation di amministrazione. Questo comando esegue il deployment di un cluster Kubernetes in Docker (kind) sulla workstation di amministrazione. Questo cluster di bootstrap ospita i controller Kubernetes necessari per creare il cluster di amministrazione. Quando crei il cluster di amministrazione, i controller sul cluster di bootstrap eseguono il provisioning dei nodi, eseguono controlli preflight e registrano il cluster di amministrazione nel parco risorse. Il cluster di bootstrap viene eliminato automaticamente dopo la creazione del cluster.

Console

  1. Inserisci un nome per il cluster di amministrazione. Nota che il nome del cluster di bootstrap viene derivato anteponendo bootstrap- al nome del cluster di amministrazione.

  2. Seleziona la versione Google Distributed Cloud per il tuo cluster di amministrazione.

  3. Nel campo Località API Google Cloud, seleziona dall'elenco la regione Google Cloud. Questa impostazione specifica la regione in cui vengono eseguite le API e i servizi seguenti:

    • API GKE On-Prem (gkeonprem.googleapis.com)
    • Servizio parco risorse (gkehub.googleapis.com)
    • Connetti servizio (gkeconnect.googleapis.com)

    Questa impostazione controlla anche la regione in cui sono archiviati i seguenti elementi:

    • I metadati del cluster necessari all'API GKE On-Prem per gestire il ciclo di vita del cluster
    • I dati di Cloud Logging e Cloud Monitoring dei componenti di sistema
    • Il log di controllo Admin creato da Cloud Audit Logs

    Il nome del cluster, il progetto e la località identificano insieme in modo univoco il cluster in Google Cloud.

  4. La console visualizza i comandi da eseguire sulla workstation di amministrazione. Lo strumento a riga di comando bmctl deve corrispondere alla versione del cluster che stai creando. Se hai già scaricato la versione applicabile di bmctl sulla workstation di amministrazione, non è necessario scaricarla di nuovo.

Interfaccia a riga di comando gcloud

  1. Assicurati di aggiornare i componenti:

    gcloud components update
    
  2. Esegui questo comando per accedere con il tuo Account Google:

    gcloud auth login
    
  3. Elenca le versioni Google Distributed Cloud disponibili che puoi installare. La versione di bmctl scaricata per creare l'ambiente di bootstrap deve corrispondere a quella che installerai nel cluster di amministrazione.

    gcloud container bare-metal admin-clusters query-version-config \
      --location=REGION
    

    Sostituisci REGION con la regione Google Cloud che utilizzerai durante la creazione del cluster. Questa è la regione in cui vengono eseguiti l'API GKE On-Prem e i servizi Fleet and Connect. Specifica us-west1 o un'altra regione supportata.

Crea il cluster di bootstrap

Esegui i seguenti passaggi sulla workstation di amministrazione. Questi comandi vengono visualizzati nella console.

  1. Imposta le tue credenziali utente come Credenziali predefinite dell'applicazione (ADC):

    gcloud auth application-default login
    

    Segui le istruzioni per selezionare il tuo Account Google per ADC.

  2. Se necessario, scarica lo strumento a riga di comando bmctl nella directory di lavoro corrente.

    gsutil cp gs://anthos-baremetal-release/bmctl/VERSION/linux-amd64/bmctl .
    chmod a+x ./bmctl
    

    Sostituisci VERSION con la versione di Google Distributed Cloud che vuoi installare. Se hai copiato il comando dalla console, la versione è già presente nel comando.

  3. Crea il cluster di bootstrap. Puoi consentire a bmctl di creare gli account di servizio (SA) richiesti oppure creare gli account di servizio e i file delle chiavi autonomamente e trasmetterli al comando bmctl register bootstrap.

bmctl crea le SA

Utilizza il comando seguente se vuoi che bmctl crei gli account di servizio richiesti con le autorizzazioni minime necessarie per creare il cluster di amministrazione. Questo comando presuppone che bmctl si trovi nella directory di lavoro attuale.

./bmctl register bootstrap \
  --ssh-key=YOUR_PRIVATE_KEY \
  --target-cluster-name=ADMIN_CLUSTER_NAME \
  --project-id=FLEET_HOST_PROJECT_ID

Sostituisci quanto segue:

Se hai copiato il comando visualizzato nella console, i seguenti campi sono già compilati.

  • ADMIN_CLUSTER_NAME: il nome del cluster di amministrazione.

  • FLEET_HOST_PROJECT_ID: il progetto in cui verrà registrato automaticamente il cluster di amministrazione dopo la creazione del cluster.

Il comando bmctl register bootstrap crea i seguenti account di servizio. Le chiavi dell'account di servizio sono archiviate nella directory bmctl-workspace/.sa-keys.

Service account Finalità Ruoli IAM
anthos-baremetal-gcr Google Distributed Cloud utilizza questo account di servizio per scaricare immagini container da Google Container Registry. Nessuna
anthos-baremetal-connect L'agente Connect utilizza questo account di servizio per mantenere una connessione tra il cluster e Google Cloud. roles/gkehub.connect
anthos-baremetal-register L'agente Connect utilizza questo account di servizio per registrare i cluster nel parco risorse Google Cloud. roles/gkehub.admin
anthos-baremetal-cloud-ops L'agente Stackdriver utilizza questo account di servizio per esportare log e metriche dai cluster a Cloud Logging e Cloud Monitoring. ruoli/logging.logWriter
roles/monitoring.metricWriter
roles/stackdriver.resourceMetadata.writer
roles/opsconfigmonitoring.resourceMetadata.writer
roles/monitoring.dashboardEditor

Specifica i file di chiavi SA

Se preferisci, puoi passare bmctl i file delle chiavi dell'account di servizio che hai creato. Il seguente comando utilizza i nomi dei file di chiave in Configura manualmente gli account di servizio e presuppone che bmctl e i file delle chiavi si trovino nella directory di lavoro corrente.

./bmctl register bootstrap \
  --ssh-key=YOUR_PRIVATE_KEY \
  --target-cluster-name=ADMIN_CLUSTER_NAME \
  --project-id=FLEET_HOST_PROJECT_ID \
  --gcr-service-account-key=anthos-baremetal-gcr.json \
  --gke-agent-service-account-key=connect-agent.json \
  --gke-register-service-account-key=connect-register.json \
  --cloud-operation-service-account-key=anthos-baremetal-cloud-ops.json

Sostituisci quanto segue:

  • YOUR_PRIVATE_KEY: il percorso della chiave SSH privata. Hai creato la chiave SSH durante la configurazione dell'accesso SSH root ai nodi.

  • ADMIN_CLUSTER_NAME: il nome del cluster di amministrazione.

  • FLEET_HOST_PROJECT_ID: il progetto in cui verrà registrato automaticamente il cluster di amministrazione dopo la creazione del cluster.

I seguenti flag specificano il percorso dei file chiave:

  • -gcr-service-account-key: il percorso del file della chiave per l'account di servizio che estrae le immagini container (anthos-baremetal-gcr).

  • --gke-agent-service-account-key: il percorso del file della chiave per l'account di servizio dell'agente Connect (anthos-baremetal-connect).

  • --gke-register-service-account-key: il percorso del file della chiave per l'account di servizio dell'agente Connect che registra il cluster nel parco risorse (anthos-baremetal-register).

  • --cloud-operation-service-account-key: il percorso del file di chiave per l'account di servizio per l'audit log e il monitoraggio dei progetti (anthos-baremetal-cloud-ops).

Dopo che bmctl ha creato correttamente il cluster di bootstrap, vedrai un output simile al seguente:

[2023-03-22 17:35:24+0000] Waiting for the temporary cluster to be registered... OK
[2023-03-22 17:35:37+0000] Please go to https://console.cloud.google.com/home/dashboard?project=example-project-12345 to create the cluster
[2023-03-22 17:35:37+0000] Waiting for preflight checks and cluster to run..

Crea il cluster di amministrazione

Console

  1. Nella pagina Installa ambiente di bootstrap, fai clic su Verifica connessione.

    Se l'operazione riesce, la console mostra Connessione stabilita.

    Prima di continuare, devi stabilire la connessione al cluster di bootstrap. Se la connessione non viene stabilita, verifica gli argomenti specificati per il comando bmctl register bootstrap:

    • Assicurati che il valore per --target-cluster-name corrisponda al Nome del cluster di amministrazione visualizzato nella sezione Nozioni di base sull'ambiente di bootstrap.

    • Assicurati che il valore per --project-id corrisponda all'ID del progetto che hai selezionato nella console.

    Se devi modificare il nome del cluster di bootstrap o l'ID progetto, inserisci Ctrl-C per uscire da bmctl register bootstrap ed eseguire nuovamente il comando.

  2. Fai clic su Avanti per iniziare a configurare il cluster di amministrazione. La maggior parte delle impostazioni nella console corrisponde ai campi nel file di configurazione del cluster.

  3. In Configurazione nodo, inserisci un valore compreso tra 64 e 250 in Numero massimo di pod per nodo o accetta il valore predefinito 110. Dopo aver creato il cluster, non puoi aggiornare questo valore.

    Il numero massimo di pod per nodo (indicata come densità dei pod} è limitato anche dalle risorse IP disponibili del cluster. Per maggiori dettagli, consulta Networking dei pod.

  4. Fai clic su Avanti.

  5. Nella pagina Networking, definisci in che modo i nodi e i componenti nel cluster comunicano tra loro e con il piano di controllo Kubernetes.

    Per informazioni dettagliate, tieni il puntatore sopra accanto a ciascun campo.

  6. Fai clic su Verifica e crea.

    La console visualizza i messaggi di stato mentre verifica le impostazioni e crea il cluster nel data center.

    Se si verifica un problema con la configurazione, nella console viene visualizzato un messaggio di errore che dovrebbe essere abbastanza chiaro da consentirti di risolvere il problema di configurazione e riprovare a creare il cluster.

Interfaccia a riga di comando gcloud

Prima di creare il cluster di amministrazione, verifica che il cluster di bootstrap sia stato registrato come membro del parco risorse:

gcloud container fleet memberships list \
  --project=FLEET_HOST_PROJECT_ID

Se il cluster di bootstrap non è presente nell'elenco, controlla il nome del cluster di bootstrap e l'ID progetto che hai specificato per bmctl register bootstrap. Se devi modificare il nome del cluster di bootstrap o l'ID progetto, inserisci Ctrl-C per uscire da bmctl register bootstrap ed eseguire nuovamente il comando.

Utilizza questo comando per creare un cluster di amministrazione:

gcloud container bare-metal admin-clusters create

La maggior parte dei flag specificati nel comando corrisponde ai campi nel file di configurazione del cluster utente.

Per creare un cluster di amministrazione con il bilanciatore del carico in bundle:

gcloud container bare-metal admin-clusters create ADMIN_CLUSTER_NAME \
  --project=FLEET_HOST_PROJECT_ID \
  --location=REGION \
  --version=VERSION \
  --max-pods-per-node=MAX_PODS_PER_NODE \
  --control-plane-vip=CONTROL_PLANE_VIP \
  --control-plane-load-balancer-port=CONTROL_PLANE_LOAD_BALANCER_PORT \
  --control-plane-node-configs 'CONTROL_PLANE_NODE_CONFIG' \
  --island-mode-service-address-cidr-blocks=SERVICE_ADDR_CIDR \
  --island-mode-pod-address-cidr-blocks=POD_ADDR_CIDR \
  --lvp-share-path=/mnt/localpv-share \
  --lvp-share-storage-class=local-shared \
  --lvp-node-mounts-config-path=/mnt/localpv-disk \
  --lvp-node-mounts-config-storage-class=local-disks

Se vuoi utilizzare il bilanciamento del carico manuale, aggiungi --enable-manual-lb al comando.

Sostituisci quanto segue:

  • ADMIN_CLUSTER_NAME: il nome del cluster di amministrazione. Non è possibile modificare il nome dopo la creazione del cluster.

  • FLEET_HOST_PROJECT_ID: il progetto in cui verrà registrato automaticamente il cluster di amministrazione dopo la creazione del cluster. Il progetto host del parco risorse non può essere modificato dopo la creazione del cluster.

  • REGION: la regione Google Cloud in cui viene eseguita l'API GKE On-Prem. Specifica us-west1 o un'altra regione supportata. La regione non può essere modificata dopo la creazione del cluster. Questa impostazione specifica la regione in cui sono archiviati i seguenti elementi:

    • I metadati del cluster necessari all'API GKE On-Prem per gestire il ciclo di vita del cluster
    • I dati di Cloud Logging e Cloud Monitoring dei componenti di sistema
    • Il log di controllo Admin creato da Cloud Audit Logs

    Il nome del cluster, il progetto e la località identificano insieme in modo univoco il cluster in Google Cloud.

  • VERSION: la versione Google Distributed Cloud. La versione deve corrispondere alla versione di bmctl che hai utilizzato per eseguire bmctl register bootstrap. Puoi controllare la versione di bmctl eseguendo bmctl version sulla workstation di amministrazione.

  • MAX_PODS_PER_NODE : per i cluster di amministrazione, i valori consentiti sono 32-250 e 64-250 per i cluster non ad alta disponibilità. Il valore predefinito se --max-pods-per-node non è incluso nel comando è 110. Dopo aver creato il cluster, questo valore non può essere aggiornato.

    Il numero massimo di pod per nodo (indicata come densità dei pod) è limitato anche dalle risorse IP disponibili del cluster. Per maggiori dettagli, consulta Networking dei pod.

  • CONTROL_PLANE_VIP: l'IP virtuale (VIP) sul bilanciatore del carico del server API Kubernetes del cluster. Includi il VIP del piano di controllo nella stessa subnet dei nodi del bilanciatore del carico. Non includere il VIP del piano di controllo nei pool di indirizzi del bilanciatore del carico.

  • CONTROL_PLANE_LOAD_BALANCER_PORT: la porta su cui il bilanciatore del carico gestisce il piano di controllo. Anche se puoi configurare un altro valore, la porta 443 è la porta standard utilizzata per le connessioni HTTPS.

  • CONTROL_PLANE_NODE_CONFIG: l'indirizzo IPv4 di un nodo del piano di controllo. I nodi del piano di controllo eseguono il carico di lavoro del sistema. Specifica questo flag per ciascun nodo del piano di controllo. In genere, hai una sola macchina se utilizzi un deployment minimo o tre macchine se utilizzi un deployment ad alta disponibilità (HA). Specifica un numero dispari di nodi per avere un quorum di maggioranza per l'alta disponibilità. Puoi modificare questi indirizzi ogni volta che aggiorni o esegui l'upgrade del cluster.

    Il valore del flag ha il seguente formato:

    'node-ip=CP_IP_ADDRESS_1,labels=CP_KEY_1.1=CP_VALUE_1.1;CP_KEY_1.2=CP_VALUE_1.2;...' \
    

    Il valore contiene segmenti che iniziano con le parole chiave node-ip e labels. Separa ogni segmento con una virgola.

    • node-ip: l'indirizzo IP di un nodo del piano di controllo. Puoi specificare un solo node-ip per flag. Se devi specificare più di un nodo, includi di nuovo il flag per ogni nodo.

    • labels: una o più coppie chiave=valore collegate al nodo.

    Tieni presente le seguenti regole di sintassi:

    • Racchiudi l'intero valore tra virgolette singole.
    • Lo spazio vuoto non è consentito.
    • Separa ogni coppia chiave=valore nel segmento labels con un punto e virgola.

    Ad esempio:

    --control-plane-node-configs 'node-ip=192.0.2.1' \
    --control-plane-node-configs 'node-ip=192.0.2.2,labels=key2.1=value2.1' \
    --control-plane-node-configs 'node-ip=192.0.2.3,labels=key3.1=value3.1;key3.2=value3.2' \
    
  • SERVICE_ADDR_CIDR: un intervallo di indirizzi IPv4, in formato CIDR, per i servizi nel cluster. L'intervallo CIDR deve essere compreso tra /24 e /12, dove /12 fornisce il maggior numero di indirizzi IP. Ti consigliamo di utilizzare un intervallo nello spazio di indirizzi IP per le reti internet private, definito in RFC 1918, ad esempio 10.96.0.0/20.

  • POD_ADDR_CIDR: un intervallo di indirizzi IPv4 in formato CIDR da utilizzare per i pod nel cluster utente. L'intervallo CIDR deve essere compreso tra /18 e /8, dove /8 fornisce il maggior numero di indirizzi IP. Ti consigliamo di utilizzare un intervallo nello spazio di indirizzi IP per le reti internet private, definito in RFC 1918, ad esempio 192.168.0.0/16.

Devi specificare i seguenti flag di archiviazione. Il comando di esempio include i valori tipici. Per ulteriori informazioni, consulta Configurare l'archiviazione locale.

  • --lvp-share-path: questo è il percorso della macchina host in cui è possibile creare le sottodirectory. Viene creato un PersistentVolume (PV) locale per ogni sottodirectory.

  • --lvp-share-storage-class: si tratta del valore di StorageClass da utilizzare per creare volumi permanenti. L'oggetto StorageClass viene creato durante la creazione del cluster.

  • --lvp-node-mounts-config-path: questo è il percorso della macchina host in cui è possibile rilevare i dischi montati. Per ogni montaggio viene creato un PersistentVolume (PV) locale.

  • --lvp-node-mounts-config-storage: la classe di archiviazione con cui vengono creati i volumi permanenti durante la creazione del cluster.

Per un elenco completo dei flag e delle relative descrizioni, consulta il riferimento dell'interfaccia a riga di comando gcloud.

L'output del comando è simile al seguente:

Waiting for operation [projects/example-project-12345/locations/us-west1/operations/operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179] to complete.

Nell'output di esempio, la stringa operation-1679543737105-5f7893fd5bae9-942b3f97-75e59179 è il OPERATION_ID dell'operazione a lunga esecuzione. Puoi scoprire lo stato dell'operazione con il seguente comando:

gcloud container bare-metal operations describe OPERATION_ID \
  --project=FLEET_HOST_PROJECT_ID \
  --location=REGION

Per ulteriori informazioni, consulta le operazioni di gcloud container bare-metal.

Correggere gli errori preflight

Prima di creare il cluster, bmctl esegue una serie di controlli preflight per verificare la configurazione. Se si verifica un problema con la configurazione, il comando gcloud ... create si chiude con un errore simile al seguente:

ERROR: (gcloud.container.bare-metal.admin-clusters.create) Invalid resource state for "projects/694677185633/locations/us-west1/bareMetalAdminClusters/abm-cluster-1": cluster preflight checks failed

Ad esempio, supponiamo che un controllo preflight non sia riuscito perché non è stato possibile raggiungere il nodo del piano di controllo. Sulla workstation di amministrazione viene visualizzato qualcosa di simile al seguente:

[2023-03-27 20:34:38+0000] Waiting for preflight check job to finish... OK
[2023-03-27 20:35:58+0000] - Validation Category: machines and network
[2023-03-27 20:35:58+0000]    - [PASSED] pod-cidr
[2023-03-27 20:35:58+0000]    - [FAILED] node-network (log: bmctl-workspace/log/register-bootstrap-20230327-201548/node-network)
[2023-03-27 20:35:58+0000]        - Failed to connect to the host via ssh: ssh: connect to host 10.100.0.5 port 22: Connection timed out
[2023-03-27 20:35:58+0000] Flushing logs... OK
[2023-03-27 20:35:58+0000] Error polling the preflight check abm-cluster-mar-27 in the cluster-abm-cluster-mar-27: preflight check failed
  1. Sulla workstation di amministrazione, assicurati che il processo bmctl register bootstrap sia ancora in esecuzione. In caso contrario, esegui nuovamente il comando con gli stessi argomenti e aggiungi il flag --reuse-bootstrap-cluster=true.

  2. Esegui gcloud ... update per correggere l'indirizzo IP non valido:

    gcloud container bare-metal admin-clusters update ADMIN_CLUSTER_NAME \
      --project=FLEET_HOST_PROJECT_ID \
      --location=REGION \
      --control-plane-node-configs 'node-ip=NEW_NODE_ID_ADDRESS'
    

    Per maggiori informazioni, consulta gcloud container bare-metal admin-clusters update.

I dettagli del processo di creazione del cluster vengono visualizzati sulla workstation di amministrazione. Se i controlli preflight vengono superati, il risultato visualizzato è simile al seguente:

[2023-03-22 23:12:47+0000] Waiting for cluster kubeconfig to become ready OK
[2023-03-22 23:15:47+0000] Writing kubeconfig file
[2023-03-22 23:15:47+0000] kubeconfig of cluster being created is present at bmctl-workspace/abm-cluster-1/abm-cluster-1-kubeconfig
[2023-03-22 23:15:47+0000] Please restrict access to this file as it contains authentication credentials of your cluster.
[2023-03-22 23:15:47+0000] Waiting for cluster to become ready OK
[2023-03-22 23:20:17+0000] Please run
[2023-03-22 23:20:17+0000] kubectl --kubeconfig bmctl-workspace/abm-cluster-1/abm-cluster-1-kubeconfig get nodes
[2023-03-22 23:20:17+0000] to get cluster nodes status.
[2023-03-22 23:20:17+0000] Waiting for node pools to become ready OK
[2023-03-22 23:20:37+0000] Waiting for metrics to become ready in GCP OK
[2023-03-22 23:25:38+0000] Waiting for cluster API provider to install in the created admin cluster OK
[2023-03-22 23:25:48+0000] Moving admin cluster resources to the created admin cluster
[2023-03-22 23:25:51+0000] Waiting for node update jobs to finish OK
[2023-03-22 23:27:41+0000] Flushing logs... OK
[2023-03-22 23:27:41+0000] Deleting membership... OK
[2023-03-22 23:27:42+0000] Deleting bootstrap cluster.

Connettiti al cluster di amministrazione

Il comando bmctl register bootstrap crea un file kubeconfig per il cluster di amministrazione sulla workstation di amministrazione. La directory in cui si trova kubeconfig e il nome del file sono basati sul nome del cluster di amministrazione, come segue:

bmctl-workspace/ADMIN_CLUSTER_NAME/ADMIN_CLUSTER_NAME-kubeconfig

Devi limitare l'accesso a questo kubeconfig perché contiene credenziali di autenticazione per il cluster.

Se vuoi utilizzare la tua identità Google per accedere al cluster, puoi configurare il gateway di connessione come segue:

  1. Sulla workstation di amministrazione, imposta la variabile di ambiente KUBECONFIG:

    export KUBECONFIG=$HOME/bmctl-workspace/ADMIN_CLUSTER_NAME/ADMIN_CLUSTER_NAME-kubeconfig
    
  2. Imposta il contesto attuale in una variabile di ambiente:

    export CONTEXT="$(kubectl config current-context)"
    
  3. Esegui questo comando gcloud. Questo comando esegue le seguenti operazioni:

    • Concede al tuo account utente il ruolo clusterrole/view Kubernetes sul cluster.
    • Configura il cluster in modo da poter eseguire comandi kubectl di sola lettura sul computer locale senza doverti connettere alla workstation di amministrazione.

    Sostituisci GOOGLE_ACCOUNT_EMAIL con l'indirizzo email associato al tuo account Google Cloud. Ad esempio: --users=alex@example.com.

    gcloud container fleet memberships generate-gateway-rbac  \
        --membership=ADMIN_CLUSTER_NAME \
        --role=clusterrole/view \
        --users=GOOGLE_ACCOUNT_EMAIL \
        --project=FLEET_HOST_PROJECT_ID \
        --kubeconfig=$KUBECONFIG \
        --context=$CONTEXT\
        --apply
    

    L'output di questo comando è simile al seguente, che è troncato per garantire la leggibilità:

    Validating input arguments.
    Specified Cluster Role is: clusterrole/view
    Generated RBAC policy is:
    --------------------------------------------
    ...
    
    Writing RBAC policy for user: GOOGLE_ACCOUNT_EMAIL to cluster.
    Successfully applied the RBAC policy to cluster.
    

Con questi criteri RBAC, puoi accedere al cluster dalla console utilizzando la tua identità Google. Inoltre, puoi eseguire comandi kubectl di sola lettura su computer diversi dalla workstation di amministrazione utilizzando uno speciale kubeconfig che instrada le richieste attraverso il gateway di connessione.

  1. Esegui questo comando su un computer diverso dalla workstation di amministrazione per ottenere la voce kubeconfig che può accedere al cluster tramite il gateway di connessione.

    gcloud container fleet memberships get-credentials ADMIN_CLUSTER_NAME \
        --project=FLEET_HOST_PROJECT_ID
    

    L'output è simile al seguente:

    Starting to build Gateway kubeconfig...
    Current project_id: FLEET_HOST_PROJECT_ID
    A new kubeconfig entry "connectgateway_FLEET_HOST_PROJECT_ID_global_ADMIN_CLUSTER_NAME" has been generated and set as the current context.
    
  2. Ora puoi eseguire i comandi kubectl tramite il gateway di connessione:

    kubectl get pods -A
    

Passaggi successivi